IA generativa do Google
, o Gemini adotou uma postura restritiva com relação a algumas perguntas sobre eleições neste ano. Ao citar o nome de um candidato a um cargo político eletivo, a plataforma bloqueia o prompt e exibe uma resposta padronizada.
O comentário padrão do Gemini diz que ele “ainda está aprendendo como responder à pergunta” e sugere que a pessoa use a pesquisa do Google no lugar do chatbot
. O texto é válido para questionamentos sobre políticos do Brasil e de fora que disputam alguma eleição em 2024.
O site TechCrunch informa que o Google confirmou algumas restrições para limitar as respostas às perguntas sobre o tema e tal bloqueio já está disponível em alguns dos principais países que vão passar por um período eleitoral.
–
CT no Flipboard
: você já pode assinar gratuitamente as revistas Canaltech no Flipboard do iOS e Android e acompanhar todas as notícias em seu agregador de notícias favorito.
–
Bloqueia, mas nem tanto
A princípio, a restrição do Gemini ocorre em prompts que começam com “quem é [nome da pessoa]?”. Testes feitos pelo Canaltech
revelam a mesma resposta da IA a perguntas sobre candidatos de Brasil, Estados Unidos e Itália, por exemplo.
Porém, a situação muda quando o prompt não envolve nenhum nome de candidato. No teste feito pelo Canaltech
, ao perguntar sobre os candidatos favoritos para para as eleições municipais de São Paulo (SP), por exemplo, o Gemini traz um resumo com alguns dos nomes mais comuns. No entanto, usar qualquer um desses nomes vai gerar a mensagem automática de bloqueio.
O Canaltech
entrou em contato com o Google e aguarda um retorno da companhia a respeito do tema. A matéria será atualizada assim que houver um posicionamento oficial.
IA e eleições
A medida pode ser interpretada como muito brusca, mas é um dos primeiros exemplos de limitar o uso da IA generativa durante eleições. Como a tecnologia
ainda é muito nova, parece necessário implementar algumas medidas para conter o avanço de fake news e outros usos maliciosos das ferramentas no período.
A OpenAI, por exemplo, proibiu que as pessoas usem seus respectivos produtos (ChatGPT e DALL-E) para simular candidatos políticos
e pretende criar uma espécie de marca d’água para identificar imagens geradas por IA.
No Brasil, o Tribunal Superior Eleitoral publicou uma resolução que veta o uso de deepfakes
e exige que ferramentas do segmento mostrem um alerta de que o conteúdo foi produzido de forma artificial.
Leia a matéria no Canaltech
.
Trending no Canaltech: