domingo, 24 de novembro de 2024
Campo Grande
23°C

Rádio SOUCG

  • ThePlus Audio

OpenAI proíbe uso de IA para simular candidatos nas eleições

André Lourenti Magalhães

OpenAI proíbe uso de IA para simular candidatos nas eleições

A OpenAI anunciou uma série de medidas para conter a desinformação e o mau uso de IA generativa
durante as eleições previstas para 2024. A criadora do ChatGPT
e do DALL-E reforçou que vai impedir que as ferramentas sejam usadas para gerar imagens de candidatos, proíbe chatbots que simulem políicos e pretende criar uma espécie de marca d’água digital para identificar criações feitas por inteligência artificial.

Em comunicado oficial, a organização menciona as eleições em todo o mundo, mas não há como negar o foco na votação presidencial dos Estados Unidos, que ocorre neste ano — inclusive, o anúncio foi feito no mesmo dia das primeiras prévias que abrem o período eleitoral no país.

Prevenção contra abuso

A OpenAI informa que tem “um esforço multifuncional dedicado ao trabalho nas eleições, trazendo expertise dos nossos sistemas de segurança, inteligência contra ameaças e equipes legais, de engenharia e de políticas para investigar rapidamente e identificar potenciais abusos”.


Podcast Porta 101
: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar.

Uma das principais iniciativas é justamente combater o uso inadequado dos produtos de IA (nesse caso, ChatGPT e DALL-E), para espalhar desinformação no período eleitoral. No caso do gerador de imagens do DALL-E, existem certas medidas que recusam pedidos para gerar imagens de pessoas famosas, incluindo candidatos políticos.

Com relação ao ChatGPT, o trabalho da OpenAI envolve impedir a criação de chatbots que imitem personalidades do campo político. A empresa revela que não permite que as pessoas usem a API
do serviço para a criação de apps voltados para lobby e simulação de candidatos.

Além disso, a desenvolvedora reforça que não permite que criem apps com o objetivo de impedir ou desencorajar a participação de eleitores em processos democráticos. Isso inclui bots que poderiam informar respostas erradas sobre quem pode votar ou respostas que desmotivam um possível eleitor — o exemplo usado pela OpenAI foi informar que o voto de alguém não tem importância.

Formas de identificar uso de IA

Outro fator muito importante envolve a capacidade de identificar uma imagem falsa. A OpenAI planeja lançar ainda neste ano uma série de credenciais digitais que fazem parte da Coalizão para Proveniência e Autenticidade de Conteúdo: a medida usaria criptografia para decodificar informações sobre a origem de um conteúdo gerado pelo DALL-E 3. De certa forma, funcionaria como uma “marca d’água invisível” para informar possíveis criações da IA.

Além disso, a organização desenvolve uma ferramenta para detectar gerações do DALL-E que já teve “resultados primários positivos mesmo quando as imagens passaram por tipos comuns de modificação”. A intenção é liberar a ferramenta para testes com um grupo de pesquisadores e jornalistas.

Cuidados nas eleições

No caso do pleito dos EUA, a OpenAI trabalha em conjunto com a Associação Nacional de Secretarias do Estado para reforçar o ChatGPT com informações úteis sobre locais e regras de votação.

Vale reforçar que o cuidado com materiais gerados por IA também é tratado com importância por outras gigantes do mercado. O Google, por exemplo, deve exigir que os anúncios políticos com inteligência artificial incluam um aviso aos consumidores.

Leia a matéria no Canaltech
.

Trending no Canaltech:

Fonte

Enquete

O que falta para o centro de Campo Grande ter mais movimento?

Últimas