IA Sora pode permitir criação de vídeos com nudez
O Sora, IA generativa para criar vídeos a partir de comandos de texto, está cada vez mais próximo. O novo modelo da OpenAI promete “simular o mundo físico em movimento”, mas já traz dúvidas sobre que tipo de conteúdo poderá gerar, a nudez sendo um dos principais pontos de preocupação. Porém, nem mesmo a diretora de tecnologia
da empresa, Mira Murati, sabe realmente dizer as limitações da inteligência artificial.
Nudez no Sora preocupa
Quando perguntada pelo site The Wall Street Journal se o Sora vai permitir a criação de vídeos com nudez, Murati respondeu que não tinha certeza, mas adicionou que artistas poderiam usufruir disso em suas “configurações criativas”.
A executiva destacou que a OpenAI “trabalha com artistas e criadores de diferentes áreas para descobrir exatamente o que é útil e qual será o nível de flexibilidade do Sora”.
–
Feedly: assine nosso feed RSS
e não perca nenhum conteúdo do Canaltech em seu agregador de notícias favorito.
–
Se essa resposta parece não dizer muito é porque de fato ela não diz. Oficialmente, não há uma certeza se a IA vai ou não permitir o uso de nudez, o que é um tanto preocupante, pois há diversos casos de deepfakes pornográficos, que vão desde a famosa cantora Taylor Swift
a pessoas comuns.
Especialistas costumam apontar que companhias como a OpenAI devem ser mais proativas nas regulações e deveriam trabalhar ao lado do governo estadunidense para inibir esse tipo de ação.
OpenAI tem que ser responsável pelo Sora
A simples ideia de liberar nudez no Sora já é o suficiente para incomodar qualquer entusiasta de tecnologia. Dar a liberdade para usuários criarem vídeos com potenciais pornográficos é assustador, tanto que países já se movimentam para aprovar leis na tentativa de coibir esse tipo de prática.
No Brasil, por exemplo, o Congresso votou um projeto de lei (PL) que visa aumentar a pena para infrações que utilizam IA contra mulheres
. Como a proposta recebeu a aprovação da Câmara dos Deputados, ela vai para o Senado para ser avaliada e votada novamente.
Nos Estados Unidos, uma pesquisa de fevereiro pelo AI Policy Institute (AIPI) apontou que 77% dos eleitores acreditam que é mais importante oferecer segurança e proteção do que lançar um novo modelo de inteligência artificial.
Além disso, mais de dois terços ressaltaram que o desenvolvedor da tecnologia deve ser responsabilizado legalmente por qualquer atividade ilegal do modelo, como gerar vídeos falsos ou pornografia.
Vale apontar que a OpenAI disse que o Sora está em treinamento por especialistas em áreas como desinformação, conteúdo odioso e preconceito, e trabalha em ferramentas para detectar produções enganosas. O Sora ainda não tem data oficial para chegar, mas a desenvolvedora da tecnologia acredita que será ainda em 2024
.
Leia a matéria no Canaltech
.
Trending no Canaltech: