Les modèles o3 et o4-mini peuvent penser en images, coder mieux que vous et localiser votre bistrot avec une photo d'un sandwich. Est-ce déjà de l’intelligence artificielle générale – AGI ?
Avec les modèles o3 et o4-mini, OpenAI a élevé la barre de l'intelligence artificielle à un niveau où nous parlons de la capacité de raisonner, de comprendre visuellement et de résoudre de manière indépendante des problèmes complexes. Certains disent que nous avons atteint l’AGI. D’autres disent – presque. Mais nous pensons tous la même chose : « Putain, c'est fou. »
Bienvenue à l’ère où l’IA comprend votre écriture manuscrite. Même si tu écris comme un médecin.
Le mercredi 16 avril 2025, OpenAI a lancé le modèle o3 et o4-mini. Pas de fanfare, pas de battage médiatique excessif – juste un article de blog sympa. Et pourtant… quelque chose n’allait pas. Pour la première fois, les gens – et ceux au sein d’OpenAI – ont commencé à faire publiquement allusion à l’AGI.
AGI. Ce « boss final » de l’intelligence artificielle. Un système capable de penser, de comprendre, d’apprendre – et, ce qui est le plus fou – de tout faire mieux que vous. Même si vous avez un doctorat.
o3 peut zoomer et recadrer à plusieurs reprises les images afin de lire un petit texte manuscrit
c'est FOU pic.twitter.com/bNve0OsJLJ
– Dan Shipper 📧 (@danshipper) 16 avril 2025
Penser avec des images – ce n’est plus seulement les yeux. C'est de l'intelligence visuelle.
L’une des fonctionnalités les plus époustouflantes d’o3 est la capacité de « penser avec des images ». Imaginez une IA recevant une photo de vos relevés de notes de lycée écrits avec votre main gauche dans le bus. Et il comprend, corrige, explique et même résout vos équations – sans aucun problème.
Le modèle peut zoomer sur l'image, la faire pivoter, l'affiner... et ensuite tirer des conclusions en fonction de ce qu'il voit. Il ne s’agit plus d’une analyse passive, mais d’une pensée visuelle active. Au niveau humain. Ou même un pas de plus.
Mathématiques? Seulement 99,5 % de taux de réussite %. Presque ennuyeux.
Lors du test d'élite AIME 2025, considéré comme le « Dark Souls » des compétitions de mathématiques, le o4-mini a obtenu un score de 99,5 %. Il ne s’agit plus de dire que « l’IA peut calculer ». « L’IA est la meilleure de sa catégorie. »
Noam Brown d’OpenAI a averti que les modèles ne sont pas encore maîtres des preuves mathématiques – c’est-à-dire qu’ils ne sont pas prêts pour la médaille Fields. Mais pour nous, simples mortels ? Ils sont. Et cela depuis un certain temps.
Et maintenant le grand « si » : est-ce une AGI ?
Les formateurs de modèles d'OpenAI disent que lors des tests d'o3, ils ont été « très tentés de l'appeler AGI ». Sam Altman retweete des critiques élogieuses, Tyler Cowen dit : « Je pense que c'est une AGI. » Et Twitter… Twitter entre en extase.
Est-ce déjà de l’intelligence artificielle générale ? Si vous définissez l’AGI comme quelque chose qui bat 99 humains % dans 99 défis intellectuels %… alors, hé, peut-être que nous y sommes.
Sécurité, hallucinations et le fait que l'IA puisse trouver votre bistrot préféré à partir d'une photo d'assiette
Le modèle o3 peut non seulement lire vos notes, mais il peut également identifier l'emplacement à partir d'une image de la fenêtre. Ou des déjeuners. Et oui, pas mal de gens se sont déjà « auto-dépréciés » par inadvertance avec une photo de leurs pâtes. Idéal pour une technologie impressionnante. Un peu moins bien pour l'intimité.
De plus – et c’est peut-être le plus grand paradoxe – o3 hallucine plus que son frère aîné o1. Plus de raison, plus d’illusion ? Selon les propres données d'OpenAI, cela peut être dû à la « supposition optimiste » qui accompagne la logique avancée.
Mais bon, qui n’est pas sain d’esprit quand il peut penser en images ?
Conclusion : Si ce n'est pas une AGI, alors c'est son petit frère énervant et intelligent
Les o3 et o4-mini sont bien plus qu’une simple mise à niveau. Ils constituent une avancée majeure. Pas seulement dans les benchmarks, mais aussi dans l’utilisation quotidienne. Il s’agit d’IA qui comprennent, voient, font des déductions et agissent même de manière agentive – comme un assistant numérique qui en sait plus sur vous que vous-même. Et si cela ne semble pas être le cas au moins quelque chose de similaire AGI... alors vous ne savez probablement pas ce que vous voulez. Mais l’IA le sait certainement.