Meus Apps


OpenAI bane contas ligadas ao Irã que usavam ChatGPT para influenciar eleições nos EUA

Postado em: 27/08/2024 | Por: Emerson Alves

A OpenAI anunciou o banimento de contas associadas ao Irã, que estavam utilizando o ChatGPT para tentar manipular a opinião pública sobre as eleições nos Estados Unidos.

Em um comunicado publicado na sexta-feira, 16 de agosto, a OpenAI revelou que detectou e baniu contas ligadas a uma “operação de influência iraniana” que utilizava o ChatGPT para gerar conteúdos destinados a influenciar a opinião pública nas redes sociais e em portais que se passavam por veículos de notícias. Esta operação, denominada “Storm-2035”, produzia textos que abordavam temas políticos relacionados à campanha presidencial dos Estados Unidos e outros eventos globais.

Leia também: Nous Research revela ferramenta revolucionária para treinamento de IA com eficiência 10.000 vezes maior.

Baixo impacto e engajamento

De acordo com a OpenAI, apesar dos esforços dos operadores, os conteúdos gerados tiveram pouco impacto e engajamento. A companhia classificou a operação como de “categoria 2” em uma escala de 1 a 6, indicando que o material foi amplamente compartilhado, mas não conseguiu alcançar um público significativo. O monitoramento da empresa identificou que o ChatGPT foi utilizado para criar tanto artigos longos quanto comentários curtos nas redes sociais.

A OpenAI especificou que os textos produzidos incluíam discussões sobre política dos EUA, além de eventos como os Jogos Olímpicos, as eleições na Venezuela e o conflito na Faixa de Gaza. Esses conteúdos foram publicados em cinco sites que se apresentavam como portais de notícias de orientações progressistas e conservadoras.

Medidas contra a manipulação de informações

Esta ação da OpenAI é parte de um esforço mais amplo para impedir o uso de sua tecnologia para fins de manipulação política e desinformação. O ChatGPT, uma ferramenta poderosa de geração de texto, tem sido amplamente utilizado em diversas áreas, mas a OpenAI tem reiterado seu compromisso em monitorar e prevenir o uso indevido de sua tecnologia, especialmente em questões sensíveis como eleições e influências políticas.

A empresa também alertou que continuará vigilante em relação a tentativas de usar sua IA para espalhar desinformação e manipular opiniões, assegurando que tomará as medidas necessárias para proteger a integridade do discurso público.