Professor brasileiro cria bot que “trolla” racistas e homofóbicos

Radicado nos EUA, David Nemer criou ferramenta que ajuda a denunciar contas que violam as regras do Twitter

O brasileiro David Nemer é professor da Universidade de Virgínia, nos Estado Unidos. O objetivo do bot que ele desenvolveu, que ainda está em fase de testes, é engajar com contas, principalmente contas que tenham o comportamento de interação com conteúdos de discurso de ódio. A ferramenta replica frases de motivação, trechos de música, conteúdos inspiradores, nada provocador. A ideia é analisar de que forma as contas irão interagir com tweets e entender quantas trocas de mensagens, por exemplo, são necessárias para uma pessoa engajar com discurso de ódio.

O projeto do bot foi desenvolvido por Nemer, que em 2022 atua como professor visitante na Universidade de Harvard, e teve seu primeiro teste realizado pela rede social no dia 2 de fevereiro, pelo período de duas horas. Os bots são aplicações autônomas que rodam na internet enquanto desempenham algum tipo de tarefa pré-determinada.

“A gente sabe que diariamente no Twitter há diversas violações dos termos de serviço e a plataforma não toma providências em todos os casos, apenas em alguns. Então a gente não sabe, de fato, que tipo de conteúdo pode ser retirado. Eles não são transparentes em relação a isso”, comenta o professor.

O professor alimentou um bot com um dicionário de palavras e termos racistas, homofóbicos, ou que pudessem ser utilizados como quebra de termos e serviços da rede social. No primeiro teste, quatro contas foram suspensas.

O achado da ferramenta durante o teste foi perceber indícios de que o Twitter tende a tomar atitudes em relação a discursos homofóbicos. “No teste, diversas contas interagiram com discurso de ódio. Só que depois da denúncia das contas, as únicas que foram suspensas foram as que engajaram com discurso homofóbico”, relata o professor.

A parte automatizada do bot é a do engajamento com as contas, identificação de termos odiosos. A decisão de reportar e denunciar as contas cabe a um humano, para entender o contexto. Hoje em dia, as inteligências artificiais ainda falham nesse tipo de compreensão. Uma vez denunciadas, o Twitter é quem decide quais contas são suspensas ou não.

O professor ainda está estudando a viabilidade do projeto, justamente em razão da necessidade de triagem humana na ferramenta. “O bot é fortemente baseado em questões manuais e humanas, então essa parte pode ser que torne a solução inviável em maior escala”, comenta Nemer.

O estudo do bot quer entender quantas interações são necessárias para contas interagirem com discursos que quebram os termos e serviços e principalmente entender o que faz o Twitter suspender contas, como funciona a moderação da rede social.

David Nemer é autor do livro Tecnologia do Oprimido, que fala do uso da tecnologia como forma de libertação para as populações marginalizadas. Em um dos capítulos, “Tecnologia do Opressor”, o autor trata de assuntos relacionados ao uso dos meios tecnológicos para ascensão da extrema direita e disparos de mensagens em massa pelo WhatsApp.

A onda de desinformação aumentou expressivamente nos últimos cinco anos no país. Sabendo da precariedade do ensino básico no Brasil e, portanto, da vulnerabilidade virtual dos grupos marginalizados, Nemer entende que a educação e inclusão digital devem caminhar juntas. E ainda considera perigoso que a inclusão digital se dê sem a educação crítica.

“Hoje a tecnologia digital está inserida em todos os setores da sociedade. A população tem que fazer uso dessa tecnologia, tem que fazer parte da educação. São ferramentas do dia a dia.”

David também ressalta que é incorreta a relação que se faz de compartilhamento de Fake News e baixa escolaridade: “Os dados mostram que os maiores propagadores de fake News são pessoas mais velhas, de classe média, classe média alta e com alto grau de escolaridade. A fake News não está relacionada com inteligência racional e sim, emocional. É como uma fé”, explica o professor.

Sobre o/a autor/a

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

O Plural se reserva o direito de não publicar comentários de baixo calão, que agridam a honra das pessoas ou que não respeitem níveis mínimos de civilidade. Os comentários são moderados por pessoas e não são publicados imediatamente.

Rolar para cima