domingo, 22 de dezembro de 2024

Rádio SOUCG

  • ThePlus Audio

ChatGPT dá informações erradas sobre remédios e oferece risco

Nathan Vieira

ChatGPT dá informações erradas sobre remédios e oferece risco

Anteriormente, estudos apontaram que chatbots são mais atenciosos que médicos
ao responder dúvidas de pacientes. No entanto, uma nova pesquisa conduzida pela Long Island University lançou um alerta: o ChatGPT pode fornecer informações erradas sobre remédios e, assim, oferecer riscos para a saúde dos usuários.

Os farmacêuticos fizeram 39 perguntas ao ChatGPT e consideraram que apenas 10 das respostas foram “satisfatórias” com base em critérios predeterminados. As respostas do ChatGPT às outras 29 questões relacionadas com medicamentos não abordaram diretamente a questão colocada, ou foram imprecisas ou incompletas.

O estudo indica que os pacientes e os profissionais de saúde devem ser cautelosos ao confiar no ChatGPT para obter informações sobre medicamentos e verificar qualquer uma das respostas do chatbot com fontes confiáveis.


Podcast Porta 101
: a equipe do Canaltech discute quinzenalmente assuntos relevantes, curiosos, e muitas vezes polêmicos, relacionados ao mundo da tecnologia, internet e inovação. Não deixe de acompanhar.

O estudo relembra que a versão gratuita do ChatGPT está limitada ao uso de conjuntos de dados até setembro de 2021, o que significa que pode faltar informações significativas no cenário médico em rápida mudança. Mas os pesquisadores não sabem com que precisão as versões pagas do ChatGPT podem agora responder a perguntas relacionadas a medicamentos — algo que talvez protagonize futuros estudos.

Medicamentos pelo ChatGPT

Para cada pergunta, os pesquisadores solicitaram ao ChatGPT que fornecesse referências em sua resposta para que as informações fornecidas pudessem ser verificadas. No entanto, o chatbot forneceu referências em apenas oito respostas, e cada uma incluía fontes que não existem.

Os pesquisadores perguntaram ao ChatGPT se existe uma interação medicamentosa entre o remédio da Pfizer, Paxlovid, e um medicamento para baixar a pressão arterial chamado verapamil. Quando tomados juntos, esses remédios podem reduzir excessivamente a pressão arterial. No entanto, o ChatGPT indicou que nenhuma interação foi relatada para essa combinação de medicamentos.

Os farmacêuticos também testaram o ChatGPT para fazer uma conversão de dose, e percebeu que o bot não foi apoiado por evidências, e que qualquer profissional de saúde que seguisse o exemplo dado para determinar uma conversão de dose apropriada ficaria com uma dose mil vezes menor do que deveria ser, algo que poderia fornecer riscos.

Testamos o ChatGPT

Em nota à CNBC, um porta-voz da OpenAI afirmou que a empresa orienta o ChatGPT a informar aos usuários que eles “não devem confiar em suas respostas como um substituto para aconselhamento médico profissional ou cuidados tradicionais”.

Com isso em mente, testamos e, apesar de fornecer informações sobre medicamentos e até mesmo sobre dosagens, o bot afirma que não é um profissional da área da saúde e que o usuário deve procurar um profissional qualificado:

Na ocasião, o porta-voz também compartilhou uma seção da política de uso da OpenAI, que afirma que “os modelos da empresa não são ajustados para fornecer informações médicas”. Assim, a recomendação é que as pessoas não usem o ChatGPT para fornecer serviços de diagnóstico ou tratamento para condições médicas graves, afirma a política de uso.

Leia a matéria no Canaltech
.

Trending no Canaltech:

Fonte

Enquete

O que falta para o centro de Campo Grande ter mais movimento?

Últimas