A OpenAI anunciou uma série de medidas para conter a desinformação e o mau uso de IA generativa
durante as eleições previstas para 2024. A criadora do ChatGPT
e do DALL-E reforçou que vai impedir que as ferramentas sejam usadas para gerar imagens de candidatos, proíbe chatbots que simulem políicos e pretende criar uma espécie de marca d’água digital para identificar criações feitas por inteligência artificial.
Em comunicado oficial, a organização menciona as eleições em todo o mundo, mas não há como negar o foco na votação presidencial dos Estados Unidos, que ocorre neste ano — inclusive, o anúncio foi feito no mesmo dia das primeiras prévias que abrem o período eleitoral no país.
Prevenção contra abuso
A OpenAI informa que tem “um esforço multifuncional dedicado ao trabalho nas eleições, trazendo expertise dos nossos sistemas de segurança, inteligência contra ameaças e equipes legais, de engenharia e de políticas para investigar rapidamente e identificar potenciais abusos”.
–
Podcast Porta 101
: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar.
–
Uma das principais iniciativas é justamente combater o uso inadequado dos produtos de IA (nesse caso, ChatGPT e DALL-E), para espalhar desinformação no período eleitoral. No caso do gerador de imagens do DALL-E, existem certas medidas que recusam pedidos para gerar imagens de pessoas famosas, incluindo candidatos políticos.
Com relação ao ChatGPT, o trabalho da OpenAI envolve impedir a criação de chatbots que imitem personalidades do campo político. A empresa revela que não permite que as pessoas usem a API
do serviço para a criação de apps voltados para lobby e simulação de candidatos.
Além disso, a desenvolvedora reforça que não permite que criem apps com o objetivo de impedir ou desencorajar a participação de eleitores em processos democráticos. Isso inclui bots que poderiam informar respostas erradas sobre quem pode votar ou respostas que desmotivam um possível eleitor — o exemplo usado pela OpenAI foi informar que o voto de alguém não tem importância.
Formas de identificar uso de IA
Outro fator muito importante envolve a capacidade de identificar uma imagem falsa. A OpenAI planeja lançar ainda neste ano uma série de credenciais digitais que fazem parte da Coalizão para Proveniência e Autenticidade de Conteúdo: a medida usaria criptografia para decodificar informações sobre a origem de um conteúdo gerado pelo DALL-E 3. De certa forma, funcionaria como uma “marca d’água invisível” para informar possíveis criações da IA.
Além disso, a organização desenvolve uma ferramenta para detectar gerações do DALL-E que já teve “resultados primários positivos mesmo quando as imagens passaram por tipos comuns de modificação”. A intenção é liberar a ferramenta para testes com um grupo de pesquisadores e jornalistas.
Cuidados nas eleições
No caso do pleito dos EUA, a OpenAI trabalha em conjunto com a Associação Nacional de Secretarias do Estado para reforçar o ChatGPT com informações úteis sobre locais e regras de votação.
Vale reforçar que o cuidado com materiais gerados por IA também é tratado com importância por outras gigantes do mercado. O Google, por exemplo, deve exigir que os anúncios políticos com inteligência artificial incluam um aviso aos consumidores.
Leia a matéria no Canaltech
.
Trending no Canaltech: