Os modelos o3 e o4-mini conseguem pensar em imagens, programar melhor que você e localizar seu bistrô com a foto de um sanduíche. Isso já é inteligência geral artificial - AGI?
Com os modelos o3 e o4-mini, a OpenAI elevou o nível da inteligência artificial a um nível em que falamos sobre a capacidade de raciocínio, compreensão visual e resolução independente de problemas complexos. Alguns dizem que alcançamos a AGI. Outros dizem – quase. Mas todos nós pensamos a mesma coisa: "Puta merda, isso é loucura."
Bem-vindo à era em que a IA entende sua caligrafia. Mesmo que você escreva como um médico.
Na quarta-feira, 16 de abril de 2025, a OpenAI lançou o modelo o3 e o4-mini. Sem alarde, sem exagero – apenas um post de blog bacana. E ainda assim… algo não estava normal. Pela primeira vez, as pessoas — e aquelas dentro da OpenAI — começaram a sugerir publicamente a AGI.
AGI. O "chefe final" da inteligência artificial. Um sistema que pode pensar, entender, aprender — e o mais louco — faz tudo isso melhor do que você. Mesmo que você tenha um doutorado.
o3 pode aplicar zoom e cortar imagens repetidamente para ler textos pequenos escritos à mão
é uma loucura foto.twitter.com/bNve0OsJLJ
-Dan Shipper 📧 (@danshipper) 16 de abril de 2025
Pensar com imagens não envolve mais apenas os olhos. Isto é inteligência visual.
Um dos recursos mais impressionantes do o3 é a capacidade de “pensar com imagens”. Imagine uma IA tirando uma foto do seu histórico escolar do ensino médio, escrito com sua mão esquerda no ônibus. E ele entende, corrige, explica e até resolve suas equações – sem problemas.
O modelo pode ampliar a imagem, girá-la, aumentá-la... e então tirar conclusões com base no que vê. Isso não é mais uma análise passiva – isso é pensamento visual ativo. No nível humano. Ou até mesmo um passo adiante.
Matemática? Apenas 99,5% de taxa de sucesso do %. Quase chato.
No teste de elite AIME 2025, considerado o “Dark Souls” das competições de matemática, o o4-mini pontuou 99,5 %. Isso não é mais “a IA pode calcular”. Isto é “IA é a melhor da categoria”.
Noam Brown, da OpenAI, alertou que os modelos ainda não são mestres em provas matemáticas, ou seja, não estão prontos para a Medalha Fields. Mas para nós, meros mortais? Eles são. E já faz algum tempo.
E agora o grande “se”: isso é AGI?
Os instrutores de modelos da OpenAI dizem que, ao testar o o3, eles ficaram “muito tentados a chamá-lo de AGI”. Sam Altman retuíta críticas entusiasmadas, Tyler Cowen diz: "Acho que isso é AGI". E o Twitter... O Twitter entra em êxtase.
Isso já é inteligência artificial geral? Se você define a AGI como algo que supera 99 % humanos em 99 % desafios intelectuais... então, ei, talvez estejamos lá.
Segurança, alucinações e o fato de que a IA pode encontrar seu bistrô favorito a partir da imagem de um prato
O modelo o3 não só consegue ler suas anotações, como também identificar o local a partir de uma imagem da janela. Ou almoços. E sim, muitas pessoas já se "autodepreciaram" inadvertidamente com uma foto de seu macarrão. Ótimo para tecnologia impressionante. Um pouco menos bom para privacidade.
Além disso – e este é talvez o maior paradoxo – o3 tem mais alucinações que seu irmão mais velho, o1. Mais razão, mais ilusão? De acordo com os próprios dados da OpenAI, isso pode ser devido ao "palpite otimista" que acompanha a lógica avançada.
Mas ei, quem não é são quando consegue pensar em imagens?
Conclusão: Se isso não é AGI, então é seu irmãozinho irritantemente inteligente
O o3 e o o4-mini são mais do que apenas uma atualização. Eles são um avanço. Não apenas em benchmarks, mas no uso diário. Eles são IAs que entendem, veem, fazem inferências e até agem como agentes — como um assistente digital que sabe mais sobre você do que você mesmo. E se isso não parece, pelo menos algo semelhante AGI... então você provavelmente não sabe o que quer. Mas a IA certamente sabe.