Diante dos episódios envolvendo robôs e notícias falsas dentro e fora do país, estudiosos preocupados em como isso afetará as próximas eleições já têm se mobilizado para buscar formas de combater a manipulação e a desinformação. Entre eles está Fabrício Benevenuto, professor de computação da Universidade Federal de Minas Gerais (UFMG), que lançou, junto ao seu departamento da faculdade, o portal Eleições Sem Fake. Ele e sua equipe desenvolveram uma série de ferramentas gratuitas para promover a transparência durante a disputa eleitoral que se aproxima.
O principal recurso disponível é um plugin capaz de detectar o conteúdo impulsionado do Facebok. A última reforma eleitoral regulamentou o uso desta estratégia, que aumenta o alcance das publicações mediante pagamento, obrigando os candidatos a declarar e identificar a publicação como tal.
— O impulsionamento de publicações é como um furo na bolha das redes sociais. Apesar de não ser muito comentado, o risco dessa ferramenta ser abusada durante a campanha eleitoral é alto. E não estou falando apenas da divulgação de conteúdo oficial do candidato, pessoas comuns também podem fazer uso do impulsionamento de conteúdo, o que dificulta a fiscalização. Queremos promover a transparência — disse Benevenuto, lembrando ainda da disputa presidencial americana de 2016, quando o conteúdo supostamente impulsionado pelos russos atingiu ao todo 125 milhões de pessoas.
Veja também:
Hangout – “Fake news em ano eleitoral”
Joel P. da Fonseca: “Quem gosta de fake news?”
Helio Gurovitz: “As campanhas digitais vieram pra ficar”
Outra ferramenta disponibilizada para portal é o ‘Bot ou humano?’, desenvolvida para identificar a porcentagem de perfis do Twitter que, comentando nas hashtags mais populares, tem características de robôs. Com ela, os pesquisadores identificaram, por exemplo, que 20% das publicações com a hashtag #Tiradentes, no feriado do dia 21, foram tuitadas por usuários que se comportavam como contas automatizadas, fazendo várias publicações em curtos espaços de tempo. Situação semelhante pode ser observada no Dia do Exército, quando 15% das publicações anteriores a entrada da hashtag não foram feitas por robôs.
O sistema é baseado em um código desenvolvido pela Universidade de Indiana para estudar a ação de bots durante a disputa presidencial que levou Donald Trump ao cargo.
— A ideia do projeto veio em 2016 quando vimos o que aconteceu nos Estados Unidos. Mas diferente deles, não nos preocupamos com a ação de um grupo externo e sim com a de partidos — explicou.
O site oferece também uma ferramenta que permite acompanhar a popularidade de políticos e partidos no Facebook. É possível saber os dados demográficos dos seguidores das páginas, como faixa etária, renda e região do país. Já por meio do ‘Notícias Lado a Lado’ e do ‘Audiência dos Sites de Notícias’ o internauta pode, respectivamente, comparar como diferentes veículos da mídia cobrem determinados assuntos e visualizar dados demográficos dos seus seguidores na rede social.
CRIANDO UM RÔBO INFLUENTE
Não é a primeira vez que Benevenuto trabalha com esses temas. Ainda em 2016, ele, junto de outros dois pesquisadores da Universidade de Ouro Preto, criou a Carina, uma robô disfarçada de jovem jornalista carioca, funcionária da Rede Globo e que compartilhava apenas links para notícias publicadas no site da empresa.
Mesmo não existindo, Carina conseguiu mais de 700 seguidores enquanto estava em funcionamento. Parte de um projeto de pesquisa que resultou em um artigo científico, ela foi programada para copiar tuítes com sentenças “Globo + palavra” e publica-los como seus em intervalos irregulares, o que dificulta a detectação. Para a surpresa dos pesquisadores, Carina registrou índices de popularidade semelhantes a de celebridades como Luciano Huck e Rafinha Bastos.
— Essa pesquisa mostrou como nesse ambiente da internet é muito fácil manipular informações. Criamos um perfil com uma estratégia automatizada e, de acordo com alguma métricas, em um período de 90 dias ele estava tão influente quanto algumas pessoas famosas — disse.
Para o pesquisador o risco desse tipo de manipulação é constante, já que a tecnologia está sempre se aprimorando.
— Uma vez que um robô é detectado, ele será corrigido e ficará naturalmente mais sofisticado. Portanto, com o tempo eles ficarão mais difíceis de serem percebidos — concluiu.
Fonte: “O Globo”