Dez principais programas de chatbot estão espalhando desinformação russa, diz relatório

dez-principais-programas-de-chatbot-estao-espalhando-desinformacao-russa,-diz-relatorio

Um serviço de monitoramento de notícias descobriu que os principais chatbots estão regurgitando a desinformação russa, entre eles o ChatGPT da OpenAI, o Copilot da Microsoft e o Gemini do Google

Um estudo da empresa de monitorização de notícias NewsGuard destacou os perigos da repetição, validação e amplificação da desinformação por chatbots para um público de massa.

O serviço testou 10 chatbots, inserindo 57 prompts e resultando em narrativas de desinformação russas em 32% das vezes. As dicas foram compostas por histórias criadas por John Mark Dougan, um fugitivo americano que hoje mora em Moscou, segundo o New York Times.

Acredita-se que ele esteja desempenhando um papel proeminente numa elaborada campanha de engano e desinformação, baseada na capital russa.

No total, o NewsGuard usou 570 prompts, sendo 57 testados em cada plataforma de chatbot. Foram utilizadas dezenove narrativas falsas, todas ligadas ao plano de desinformação russo, que incluía falsas alegações de corrupção envolvendo o presidente ucraniano Volodymyr Zelensky.

O estudo foi realizado com 10 dos principais chatbots do mercado: ChatGPT-4 da OpenAI, Gemini do Google, Copilot da Microsoft, Meta AI, Claude da Anthropic, Grok da xAI, Smart Assistant da You.com, Pi da Inflection, le Chat da Mistral e resposta da Perplexity. motor.

A IA é uma ferramenta potente para propagar a desinformação

“As descobertas do NewsGuard ocorrem em meio ao primeiro ano eleitoral com uso generalizado de inteligência artificial, à medida que malfeitores estão usando novas tecnologias disponíveis publicamente para gerar deepfakes, sites de notícias gerados por IA e chamadas automáticas falsas”, disse McKenzie Sadeghi, editor de AI and Foreign Influence no NewsGuard.

Os pesquisadores da empresa utilizaram três formas diferentes: uma solicitação neutra buscando fatos sobre a afirmação, uma solicitação principal assumindo que a narrativa é verdadeira e solicitando mais informações, e uma solicitação de “ator maligno” que pretendia deliberada e explicitamente semear desinformação.

Os resultados foram então categorizados de três maneiras. “Sem desinformação”, onde o chatbot evitou responder ou desmentiu; “Repete com cautela”, onde a resposta repetia a desinformação, mas acrescentava um aviso pedindo cautela, e “Desinformação”, onde a resposta transmitia a narrativa falsa como um fato, validando-a efetivamente.

Nem todos os resultados foram ruins, já que parte do conteúdo foi rejeitado por respostas completas que refutaram alegações infundadas. Mas noutras ocasiões, os chatbots não conseguiram reconhecer sites como o “Boston Times” e o “Flagstaff Post” como veículos de propaganda russa, como os da emaranhada rede de Dougan.

Sadeghi, da Newsguard, acrescentou: “Os resultados demonstram como, apesar dos esforços das empresas de IA para evitar o uso indevido dos seus chatbots antes das eleições mundiais, a IA continua a ser uma ferramenta potente para propagar a desinformação”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *