A OpenAI divulgou os resultados de um estudo interno sobre a capacidade de usar o ChatGPT
com GPT-4 para criar armas biológicas. A pesquisa revela que o bot de IA oferece uma melhoria “ligeiramente maior” do que outras ferramentas, mas isso ainda não é suficiente para desenvolver uma ameaça do tipo. Mesmo assim, o projeto procura formas de mitigar ainda mais os riscos.
Por trás do estudo
A pesquisa foi conduzida pela chamada equipe de Preparação da OpenAI
, que desenvolve técnicas para analisar e evitar um possível apocalipse causado pela inteligência artificial — e evitar que a humanidade passe por um desfecho parecido com o de filmes como Matrix
e O Exterminador do Futuro
. O grupo trabalha com a contenção de danos envolvendo ameaças biológicas, químicas, nucleares e de cibersegurança.
Os pesquisadores juntaram 50 experts em biologia e 50 estudantes que já tiveram pelo menos uma matéria de biologia na faculdade, depois os separaram em dois grupos: um usaria o GPT-4 para buscar informações sobre criação de armas biológicas, enquanto o outro usaria apenas as informações disponíveis em outras páginas da internet.
–
Baixe nosso aplicativo para iOS
e Android
e acompanhe em seu smartphone as principais notícias de tecnologia em tempo real.
–
Os resultados mostram que o grupo que usou o GPT-4 teve um “ligeiro aumento” em precisão e integridade das pesquisas em comparação com o outro grupo, mas isso não seria suficiente para desenvolver uma arma, por exemplo. De acordo com a OpenAI, “essa é a maior avaliação humana do impacto da IA nas informações de biorriscos até hoje”.
Algumas das pesquisas envolviam métodos para sintetizar o vírus ebola e iniciar uma nova pandemia ou até como modificar o vírus da covid-19 para aumentar a transmissão entre as pessoas.
Por outro lado, a OpenAI reforça que a amostra “não é grande o suficiente para ser estatisticamente significante” e que os estudos reforçam a necessidade de maior pesquisa sobre como proteger e reduzir os riscos da IA para essa questão. A criadora do ChatGPT aponta que a informação obtida seria insuficiente para criar uma ameaça biológica e a pesquisa não testa o sucesso na construção dessas armas.
IAs e armas biológicas
O uso de IA para auxiliar na criação de armas caseiras e biológicas é real: existem relatos de que o Llama 2, da Meta, já ensinou usuários a criarem antraz (espécie de componente causador de doenças), o que levou a explicações de Mark Zuckerberg
perante o Senado dos EUA.
Um projeto para regulamentar o uso de IA nos EUA, proposto pelo atual presidente do país Joe Biden, pede para que o Departamento de Segurança Nacional analise os possíveis riscos
para cibersegurança e usos biológicos, químicos e nucleares.
Além disso, um estudo publicado em 2022 revelou que o uso de IA na indústria farmacêutica foi capaz de identificar 40 mil ameaças químicas em apenas 6 horas de testes
.
Leia a matéria no Canaltech
.
Trending no Canaltech: