segunda-feira, 2 de fevereiro de 2026

OpenAI proíbe uso de IA para simular candidatos nas eleições

OpenAI proíbe uso de IA para simular candidatos nas eleições
André Lourenti Magalhães

OpenAI proíbe uso de IA para simular candidatos nas eleições

A OpenAI anunciou uma série de medidas para conter a desinformação e o mau uso de IA generativa
durante as eleições previstas para 2024. A criadora do ChatGPT
e do DALL-E reforçou que vai impedir que as ferramentas sejam usadas para gerar imagens de candidatos, proíbe chatbots que simulem políicos e pretende criar uma espécie de marca d’água digital para identificar criações feitas por inteligência artificial.

Em comunicado oficial, a organização menciona as eleições em todo o mundo, mas não há como negar o foco na votação presidencial dos Estados Unidos, que ocorre neste ano — inclusive, o anúncio foi feito no mesmo dia das primeiras prévias que abrem o período eleitoral no país.

Prevenção contra abuso

A OpenAI informa que tem “um esforço multifuncional dedicado ao trabalho nas eleições, trazendo expertise dos nossos sistemas de segurança, inteligência contra ameaças e equipes legais, de engenharia e de políticas para investigar rapidamente e identificar potenciais abusos”.


Podcast Porta 101
: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar.

Uma das principais iniciativas é justamente combater o uso inadequado dos produtos de IA (nesse caso, ChatGPT e DALL-E), para espalhar desinformação no período eleitoral. No caso do gerador de imagens do DALL-E, existem certas medidas que recusam pedidos para gerar imagens de pessoas famosas, incluindo candidatos políticos.

Com relação ao ChatGPT, o trabalho da OpenAI envolve impedir a criação de chatbots que imitem personalidades do campo político. A empresa revela que não permite que as pessoas usem a API
do serviço para a criação de apps voltados para lobby e simulação de candidatos.

Além disso, a desenvolvedora reforça que não permite que criem apps com o objetivo de impedir ou desencorajar a participação de eleitores em processos democráticos. Isso inclui bots que poderiam informar respostas erradas sobre quem pode votar ou respostas que desmotivam um possível eleitor — o exemplo usado pela OpenAI foi informar que o voto de alguém não tem importância.

Formas de identificar uso de IA

Outro fator muito importante envolve a capacidade de identificar uma imagem falsa. A OpenAI planeja lançar ainda neste ano uma série de credenciais digitais que fazem parte da Coalizão para Proveniência e Autenticidade de Conteúdo: a medida usaria criptografia para decodificar informações sobre a origem de um conteúdo gerado pelo DALL-E 3. De certa forma, funcionaria como uma “marca d’água invisível” para informar possíveis criações da IA.

Além disso, a organização desenvolve uma ferramenta para detectar gerações do DALL-E que já teve “resultados primários positivos mesmo quando as imagens passaram por tipos comuns de modificação”. A intenção é liberar a ferramenta para testes com um grupo de pesquisadores e jornalistas.

Cuidados nas eleições

No caso do pleito dos EUA, a OpenAI trabalha em conjunto com a Associação Nacional de Secretarias do Estado para reforçar o ChatGPT com informações úteis sobre locais e regras de votação.

Vale reforçar que o cuidado com materiais gerados por IA também é tratado com importância por outras gigantes do mercado. O Google, por exemplo, deve exigir que os anúncios políticos com inteligência artificial incluam um aviso aos consumidores.

Leia a matéria no Canaltech
.

Trending no Canaltech:

Fonte