O GPT-4.5, o mais recente modelo de inteligência artificial do OpenAI Labs, é o primeiro a passar com sucesso no famoso teste de Turing. Em um estudo científico recente, 73 participantes do % acreditaram que estavam se comunicando com uma pessoa real – e não com um algoritmo. Mas, embora seja uma conquista impressionante, ela também levanta algumas questões bastante assustadoras.
Em 1950, Alan Turing fez uma pergunta simples: uma máquina pode pensar? E se ele não pensa exatamente, ele consegue convencer uma pessoa a pensar? Assim nasceu o famoso Teste de Turing – o teste definitivo para inteligência artificial. Bem, GPT-4.5 Agora, parece que pela primeira vez na história, ele realmente suportou isso. Mas antes de começarmos a aplaudir a máquina, vamos dar uma olhada no que isso realmente significa — e por que podemos estar preocupados.
Como o GPT-4.5 enganou a humanidade (ou não)?
Os cientistas Cameron Jones e Benjamin Bergen da Universidade da Califórnia, em San Diego, em um estudo publicado no arXiv (Fonte: arxiv.org), conduziu um experimento no qual os participantes tentaram determinar quem era humano e quem era inteligência artificial em 500 conversas de texto. Em cada conversa, eles interagiam com dois interlocutores – um humano e um modelo de IA – e tinham exatamente cinco minutos para tomar uma decisão.
Resultados? O GPT-4.5 convenceu 73 indivíduos do teste % de que era uma pessoa real — com mais sucesso do que interlocutores humanos reais! Se isso não é um milagre digital, então não sabemos o que é.
Pessoas reais, que participaram como grupo de controle, foram identificados com sucesso como humanos apenas em 67 casos %.
Qual é o segredo do sucesso?
Não se tratava apenas de poder de processamento ou compreensão. A chave estava no “prompt de persona” – um comando para fazer o GPT-4.5 se comportar como um jovem introvertido e um tanto cínico, usando o jargão atual da internet. E olhe para ele em poucas palavras: acontece que tal personagem parece totalmente plausível. Talvez até demais.
Outros modelos testados tiveram um desempenho muito pior:
- LLaMa-3.1: : Desempenho 56 %
- GPT-4o: : Desempenho 21 %
- ELIZA (chatbot lendário dos anos 60): desempenho 23 %
Isso significa que o GPT-4.5 é realmente inteligente?
Não exatamente. O teste de Turing não mede consciência, compreensão ou inteligência profunda – ele mede a capacidade de imitação. Então o GPT-4.5 aprendeu a se parecer com um humano, mas não a se tornar humano. Ou como dizem os cientistas: “O modelo não sabe que sabe”. Essa diferença é importante. Podemos dizer que o GPT-4.5 é um mestre do blefe, um ilusionista no mundo dos algoritmos. Mas esses ilusionistas, quando usados de maneira errada, podem rapidamente se tornar fraudes.
Por que deveríamos nos preocupar com isso?
Se a IA consegue imitar as pessoas melhor do que as próprias pessoas, o que isso significa para a verificação de identidade online, para os relacionamentos, para a manipulação da opinião pública? A IA poderá no futuro escrever colunas, conduzir entrevistas e persuadir eleitores?
Os pesquisadores enfatizam que a sociedade precisa considerar seriamente como regulamentamos modelos tão poderosos. Atualmente, qualquer um pode gerar conversas falsas convincentes, comentários, opiniões... e quem sabe o que mais se segue com apenas alguns cliques.
Conclusão: Já temos a AGI?
O GPT-4.5 não é apenas mais um chatbot inteligente. É um marco. É a prova de que entramos em uma nova era — uma era em que as máquinas não apenas entendem a linguagem, mas a usam com tanta sutileza e contexto que enganam até a nós.
Isso é fascinante. Isso é assustador. Este é o futuro.
E o futuro, ao que parece, pode digitar muito bem.