O ChatGPT
é alvo de um novo pedido de investigação sobre os casos de alucinação e geração de informações falsas a respeito de indivíduos que pode resultar em uma multa de 20 milhões de euros. A noyb, uma organização sem fins lucrativos focada em privacidade e com base na União Europeia, apresentou a queixa contra a OpenAI e alega que a empresa tem conhecimento sobre a incapacidade da IA de corrigir as respostas falsas, mas não oferece soluções.
A noyb encaminhou a reclamação à Autoridade Austríaca de Proteção de Dados e se fundamenta no Regulamento Geral sobre a Proteção de Dados da União Europeia (GDPR). Essa lei permite que as pessoas solicitem correções sobre informações imprecisas geradas por ferramentas de IA e tenham explicações sobre como seus dados pessoais são coletados e armazenados pelos modelos de linguagem.
Alucinações em informações sobre indivíduos
O texto da organização lembra que a IA generativa é incapaz de garantir a veracidade das respostas, já que seu funcionamento se dá através de um modelo preditivo de associação de palavras a partir do prompt de comando
.
–
Podcast Porta 101
: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar.
–
O problema está, segundo a noyb, na geração de informações falsas a respeito de pessoas. “Embora informações imprecisas possam ser toleráveis quando um aluno usa o ChatGPT para ajudá-lo com o dever de casa, elas são inaceitáveis quando se trata de informações sobre indivíduos”, diz a organização.
De acordo com a queixa, a legislação europeia exige que os dados pessoais sejam precisos. Além disso, os indivíduos também têm direito à retificação, nos termos do GDPR, se os dados forem imprecisos e podem solicitar que informações falsas sejam excluídas.
No comunicado sobre o pedido de investigação, a representante cita uma reportagem do jornal The New York Times que revela que os chatbots inventam informações pelo menos 3% das vezes — com uma máxima que pode chegar até 27%. Esses dados reiteram o problema de alucinações das IAs, quando as ferramentas inventam respostas sem qualquer base factual.
“Está claro que as empresas não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da União Europeia ao processar dados sobre indivíduos. Se um sistema não consegue produzir resultados precisos e transparentes, ele não pode ser usado para gerar dados sobre indivíduos”, diz a advogada de proteção de dados na noyb, Maartje de Graaf, no texto do pedido de investigação.
A organização solicita que a Autoridade Austríaca de Proteção de Dados investigue “o processamento de dados da OpenAI e as medidas tomadas para garantir a precisão dos dados pessoais processados no contexto dos grandes modelos de linguagem da empresa”.
A noyb pede ainda que a autoridade imponha penalidades à companhia para garantir o cumprimento da lei no futuro. O não cumprimento das regras do GDPR pode resultar em uma multa de até 20 milhões de euros ou 4% do faturamento anual global — a decisão é baseada na quantia de maior valor.
A OpenAI ainda não se pronunciou sobre a queixa e o pedido de investigação solicitado pela organização noyb.
Leia a matéria no Canaltech
.
Trending no Canaltech: