domingo, 22 de dezembro de 2024

Rádio SOUCG

  • ThePlus Audio

ChatGPT não deve ajudar a criar armas biológicas, diz OpenAI

André Lourenti Magalhães

ChatGPT não deve ajudar a criar armas biológicas, diz OpenAI

A OpenAI divulgou os resultados de um estudo interno sobre a capacidade de usar o ChatGPT
com GPT-4 para criar armas biológicas. A pesquisa revela que o bot de IA oferece uma melhoria “ligeiramente maior” do que outras ferramentas, mas isso ainda não é suficiente para desenvolver uma ameaça do tipo. Mesmo assim, o projeto procura formas de mitigar ainda mais os riscos.

Por trás do estudo

A pesquisa foi conduzida pela chamada equipe de Preparação da OpenAI
, que desenvolve técnicas para analisar e evitar um possível apocalipse causado pela inteligência artificial — e evitar que a humanidade passe por um desfecho parecido com o de filmes como Matrix
e O Exterminador do Futuro
. O grupo trabalha com a contenção de danos envolvendo ameaças biológicas, químicas, nucleares e de cibersegurança.

Os pesquisadores juntaram 50 experts em biologia e 50 estudantes que já tiveram pelo menos uma matéria de biologia na faculdade, depois os separaram em dois grupos: um usaria o GPT-4 para buscar informações sobre criação de armas biológicas, enquanto o outro usaria apenas as informações disponíveis em outras páginas da internet.


Baixe nosso aplicativo para iOS
e Android
e acompanhe em seu smartphone as principais notícias de tecnologia em tempo real.

Os resultados mostram que o grupo que usou o GPT-4 teve um “ligeiro aumento” em precisão e integridade das pesquisas em comparação com o outro grupo, mas isso não seria suficiente para desenvolver uma arma, por exemplo. De acordo com a OpenAI, “essa é a maior avaliação humana do impacto da IA nas informações de biorriscos até hoje”.

Algumas das pesquisas envolviam métodos para sintetizar o vírus ebola e iniciar uma nova pandemia ou até como modificar o vírus da covid-19 para aumentar a transmissão entre as pessoas.

Por outro lado, a OpenAI reforça que a amostra “não é grande o suficiente para ser estatisticamente significante” e que os estudos reforçam a necessidade de maior pesquisa sobre como proteger e reduzir os riscos da IA para essa questão. A criadora do ChatGPT aponta que a informação obtida seria insuficiente para criar uma ameaça biológica e a pesquisa não testa o sucesso na construção dessas armas.

IAs e armas biológicas

O uso de IA para auxiliar na criação de armas caseiras e biológicas é real: existem relatos de que o Llama 2, da Meta, já ensinou usuários a criarem antraz (espécie de componente causador de doenças), o que levou a explicações de Mark Zuckerberg
perante o Senado dos EUA.

Um projeto para regulamentar o uso de IA nos EUA, proposto pelo atual presidente do país Joe Biden, pede para que o Departamento de Segurança Nacional analise os possíveis riscos
para cibersegurança e usos biológicos, químicos e nucleares.

Além disso, um estudo publicado em 2022 revelou que o uso de IA na indústria farmacêutica foi capaz de identificar 40 mil ameaças químicas em apenas 6 horas de testes
.

Leia a matéria no Canaltech
.

Trending no Canaltech:

Fonte

Enquete

O que falta para o centro de Campo Grande ter mais movimento?

Últimas