Foi em novembro de 2022 que o mundo foi impactado pelo ChatGPT. De repente, estávamos diante de uma página em branco que, a partir de alguns comandos em texto, fornecia respostas contextualizadas como se fosse uma conversa com um humano superinteligente.
E então, qual foi o nosso primeiro impulso egocêntrico?
Testá-lo em seus conhecimentos sobre nós mesmos. Com certeza, uma das suas primeiras interações com o LLM (large language model) da OpenAI foi perguntar o que ele sabe sobre você. Conheço uma porção de gente que, mesmo tendo um verbete atualizado na Wikipédia e certa presença na mídia, frustrou-se com as respostas.
Na época, eram comuns relatos no estilo: “A-ha! Olha lá… esse negócio não é tão inteligente assim” e “ Ainda precisa avançar muito para substituir alguém”.
Depois, os testes seguiram para áreas que dominamos. Um médico perguntava sobre doenças e tratamentos, um advogado sobre processos e jurisprudência, etc. As análises iniciais, manifestadas em opiniões, eram sempre para apontar a superficialidade das respostas ou os eventuais erros factuais cometidos.
Nessas horas, dá para sentir um desejo humano subconsciente e incontrolável de se mostrar melhor que a máquina, de se valorizar diante de uma evidente ameaça. Um instinto de sobrevivência que age mais forte que nosso lado racional.
Para uma parcela dos early adopters, de dois anos para cá, a coisa parece ter mudado bastante. Conforme esse avanço tecnológico foi chegando ao mainstream, vejo que muita gente percebeu que o uso da IA não é sobre as respostas que ela dá, mas sobre como, no processo de construção de qualquer coisa, ela pode auxiliar, melhorar e potencializar o resultado final – que será apresentado e assinado por um humano.
Gosto da comparação que ouvi de Kevin Kelly, fundador da revista Wired e um dos mais respeitados futuristas norte-americanos, no SXSW 2023, relacionando a IA com uma calculadora:
“Assim como uma calculadora é mais precisa do que a média das pessoas, você deve confiar mais nas respostas que a calculadora fornece do que nas de uma pessoa comum.”
Um ser humano com uma calculadora em mãos é capaz de ir mais longe e apresentar mais resultados do que um ser humano sem uma calculadora. O mesmo vale para um ser humano com acesso a qualquer LLM de inteligência artificial.
E então, nesta semana, surgiu uma “tempestade” chamada DeepSeek. A inteligência artificial chinesa mudou o valor das ações mais valiosas do mercado global, foi pauta de 15 em cada 10 analistas de tecnologia e virou um tema quente nas redes sociais eternamente polarizadas.
E o que aconteceu?
Os primeiros testes feitos por analistas, gurus e personalidades ocidentais mundo afora com o aplicativo chinês repetem o mesmo erro do início, mas com uma nova roupagem. Adivinha quais foram as primeiras perguntas:
• A China é comunista?
• Xi Jinping é um cara bacana?
• O regime chinês viola os direitos humanos?
E qual é o grande efeito surpresa dessas respostas? Que a inteligência artificial chinesa tem um viés — pasme — chinês. Puxa vida, quem imaginaria?!
Numa mistura daquela mesma resposta de sobrevivência da espécie humana com a vontade de colher os likes polarizados que adoram uma discussão direita versus esquerda, o debate público sobre a tecnologia se banalizou.
O DeepSeek tem viés? Tem, sim. O GPT também tem viés? Sim, tem também. O Google também tem, viu? A Meta, que comanda o Instagram, o Facebook e até o seu WhatsApp, também tem — e isso ficou claríssimo a partir das declarações recentes do seu CEO.
Mas qual é a discussão que realmente importa? Qual modelo usar?
Quem está usando efetivamente inteligência artificial e já colhe os frutos da potencialização do seu trabalho não me parece preocupado em utilizar essa ferramenta para sanar dúvidas ideológicas. E você também não deveria se preocupar com isso — nem deixar que isso o impeça de se familiarizar com essa tecnologia.
GPT ou DeepSeek? Tanto faz: ambos servem para você.
Menos polarização e mais ação me parece um bom conselho final para todos nós que, inevitavelmente, vamos passar por — mais esta — revolução tecnológica.