Ciência e Tecnologia Destaque

Nova tecnologia de IA aperfeiçoa a verificação de fatos

Sistemas explicam decisões, reduzem esforço e ajudam a lidar com boatos; resultados superaram o desempenho do ChatGPT-4

>

Por Isabela Meletti

>

A cientista da computação Jing Yang, da Universidade Estadual de Campinas (Unicamp), desenvolveu ferramentas baseadas em inteligência artificial (IA) que auxiliam jornalistas a verificar informações de maneira mais transparente e eficiente. A proposta está detalhada em sua tese de doutorado, “Combatendo a Desinformação com Verificação Factual, Eficiente e Explicável”, orientada pelo professor Anderson Rocha, do Instituto de Computação da Unicamp.

O diferencial do trabalho está na explicabilidade: os sistemas criados não apenas indicam se uma informação é verdadeira ou falsa, mas também explicam como chegaram a essa conclusão. “Na inteligência artificial, muitas decisões são tomadas sem saber como funcionam. É como uma caixa-preta. Se dissermos que um post ou artigo é verdadeiro ou falso, baseado em alguns algoritmos ou modelos que implementamos, como jornalista ou como leitor, eu vou querer saber por que a IA acha que isso é verdadeiro ou falso. Saber o motivo é mais importante do que apenas dizer se aquilo é verdade”, afirma Jing.

Jing Yang segue aprimorando as ferramentas que criou com base em testes de jornalistas brasileiros e alemães (Foto: Divulgação/Unicamp)

A pesquisadora desenvolveu dois modelos principais. O primeiro agrupa mensagens semelhantes para otimizar o processo de verificação. Por exemplo, em vez de analisar 28 mil postagens duplicadas no Twitter, o sistema agrupa as equivalentes e permite avaliar cerca de 700 representações únicas. Isso reduz o volume de trabalho e acelera a detecção de desinformação.

O segundo modelo emprega uma tecnologia chamada pergunta e resposta explicável (Explainable Question Answering). O sistema formula perguntas sobre pontos duvidosos de uma afirmação e busca automaticamente respostas em fontes confiáveis, apresentando justificativas claras para cada decisão. Segundo Jing, isso torna a IA mais confiável e útil para o público jornalístico.

Essas ferramentas estão sendo testadas por jornalistas do Brasil e da Alemanha. Uma das colaboradoras foi Taís Seibt, professora da Universidade do Vale do Rio dos Sinos (Unisinos), que considerou os modelos úteis na prática jornalística. Os testes contribuíram para ajustes na interface e na experiência de uso, considerando as diferenças culturais, sociais e linguísticas dos usuários.

“Estamos trabalhando com jornalistas, que nos dão um monte de feedbacks sobre as ferramentas para depois poderem ser utilizadas no mundo real. É uma pesquisa contínua”, explica a pesquisadora. A usabilidade também é uma preocupação: os sistemas foram pensados para atender desde jornalistas experientes até usuários comuns, respeitando diferentes contextos de atuação .

Outro destaque da pesquisa é a criação de uma metodologia própria de decomposição de fatores, que permite analisar separadamente os elementos de uma informação falsa. Essa abordagem possibilitou que os modelos superassem o desempenho do ChatGPT-4 em testes realizados com dados específicos do domínio de verificação de fatos, conforme relatado na tese . “Fomos capazes de fazer modelos que são mais baratos, mais acessíveis, alinhados com nossos dados específicos, dados que são relevantes, relacionados a um domínio específico”, destaca Jing.

Ainda em fase de testes e validação com usuários, a pesquisa tem potencial para transformar o modo como profissionais da comunicação enfrentam a desinformação. Ao tornar a inteligência artificial mais transparente, o trabalho contribui para a construção de ferramentas tecnológicas éticas, confiáveis e eficazes no combate às fake news.

>

Edição: Murilo Sacardi

Orientação: Prof. Artur Araújo

Você também pode gostar...