o3 および o4-mini モデルは、画像で考え、あなたよりも優れたコードを作成し、サンドイッチの写真でビストロを見つけることができます。これはすでに汎用人工知能(AGI)なのでしょうか?
OpenAI は、o3 および o4-mini モデルによって、人工知能の水準を、推論、視覚的理解、複雑な問題の自主的な解決能力のレベルまで引き上げました。 AGI が達成されたという人もいます。他の人は「ほぼそうだ」と言います。しかし、私たち全員が同じことを考えています。「なんてことだ、これはおかしい。」
AIがあなたの手書きを理解する時代へようこそ。たとえ医者のように書いたとしても。
2025年4月16日水曜日、OpenAIはモデルを公開した。 o3 と o4-ミニ。ファンファーレも過剰な宣伝もなく、ただクールなブログ投稿です。しかし…何かが普通ではありませんでした。初めて、人々、そして OpenAI 内部の人々が AGI について公に示唆し始めました。
汎用性。まさに人工知能の「ラスボス」。考え、理解し、学習し、そして最もすごいことに、そのすべてをあなたよりも上手にこなすシステムが存在します。たとえ博士号を持っていたとしても。
o3は、小さな手書きのテキストを読むために画像を繰り返しズームしたり切り取ったりすることができます。
クレイジーだ pic.twitter.com/bNve0OsJLJ
— ダン・シッパー📧 (@danshipper) 2025年4月16日
イメージで考える – もはや目だけではありません。これが視覚的知能です。
o3 の最も驚くべき機能の 1 つは、「イメージで考える」能力です。バスの中で左手で書いた高校の成績証明書を AI が画像化するところを想像してみてください。そして、問題なく方程式を理解し、修正し、説明し、さらには解きます。
モデルは画像を拡大したり、回転させたり、鮮明化したりすることができ、そして見たものに基づいて結論を導き出すことができます。これはもはや受動的な分析ではなく、能動的な視覚的思考です。人間レベルで。あるいはさらに一歩先へ。
数学? % の成功率はわずか 99.5% です。ほとんど退屈だ。
数学コンテストの「ダークソウル」と評されるエリートAIME 2025テストで、o4-miniは99.5 %のスコアを獲得しました。これはもう「AIは計算できる」ではありません。これが「AIは最高クラス」です。
OpenAIのノーム・ブラウン氏は、これらのモデルはまだ数学的証明の達人ではない、つまりフィールズ賞に値するレベルではないと警告した。しかし、我々凡人にとってはどうでしょうか?彼らです。そしてそれはしばらく続いています。
さて、大きな「もしも」ですが、これは AGI なのでしょうか?
OpenAIのモデルトレーナーは、o3をテストしていたとき、「AGIと呼びたくなった」と語る。サム・アルトマンが絶賛のリツイート、タイラー・コーウェンが「これが AGI だと思う」そしてTwitterは…Twitterは大喜びします。
これはすでに汎用人工知能なのでしょうか? AGI を、99 % の知的チャレンジで 99 % の人間に勝つものと定義するなら、まあ、私たちはそこに到達しているのかもしれません。
セキュリティ、幻覚、そしてAIが皿の写真からお気に入りのビストロを見つけられるという事実
o3 モデルはメモを読み取るだけでなく、ウィンドウの写真から場所を特定することもできます。あるいはランチ。そして確かに、すでにかなりの数の人が、うっかりして自分のパスタの写真を「自虐」している。素晴らしいテクノロジーに最適です。プライバシーに関してはあまり良くありません。
さらに、おそらくこれが最大のパラドックスですが、o3 は兄の o1 よりも幻覚をよく見ます。理性が増えれば妄想も増える? OpenAI 自身のデータによると、これは高度なロジックに伴う「楽観的な推測」によるものかもしれない。
でも、絵で考えることができるのに正気でない人がいるでしょうか?
結論:これがAGIでないなら、それはその厄介なほど賢い弟分だ
o3 と o4-mini は単なるアップグレードではありません。それらは画期的なものだ。ベンチマークだけでなく、日常的な使用でも。これらは、理解し、見て、推論し、さらにはエージェントとして行動する AI です。まるで、あなたよりもあなたのことをよく知っているデジタル アシスタントのようです。もしそう思えないとしても、少なくとも 似たようなもの AGI...それなら、おそらく自分が何を望んでいるのか分からないでしょう。しかし、AIは確かに知っています。