Modellerna o3 och o4-mini kan tänka i bilder, koda bättre än du och hitta din bistro med ett foto av en smörgås. Är detta redan artificiell allmän intelligens - AGI?
Med modellerna o3 och o4-mini har OpenAI höjt ribban för artificiell intelligens till en nivå där vi talar om förmågan att resonera, visuell förståelse och självständigt lösa komplexa problem. Vissa säger att vi har uppnått AGI. Andra säger – nästan. Men vi tänker alla samma sak: "Heliga jävel, det här är galet."
Välkommen till eran där AI förstår din handstil. Även om du skriver som en läkare.
Onsdagen den 16 april 2025 lanserade OpenAI modellen o3 och o4-mini. Ingen fanfar, ingen överdriven hype – bara ett coolt blogginlägg. Och ändå... något var inte normalt. För första gången började människor – och de inom OpenAI – offentligt tipsa om AGI.
AGI. Den där "slutliga chefen" för artificiell intelligens. Ett system som kan tänka, förstå, lära sig – och det galnaste – gör allt bättre än du. Även om du har en doktorsexamen.
o3 kan upprepade gånger zooma och beskära till bilder för att läsa liten handskriven text
det är GALET pic.twitter.com/bNve0OsJLJ
— Dan Shipper 📧 (@danshipper) 16 april 2025
Att tänka med bilder – det är inte bara ögonen längre. Detta är visuell intelligens.
En av de mest häpnadsväckande egenskaperna hos o3 är förmågan att "tänka med bilder". Föreställ dig att en AI får en bild av dina gymnasieutskrifter skrivna med din vänstra hand på bussen. Och den förstår, korrigerar, förklarar och till och med löser dina ekvationer – utan problem.
Modellen kan zooma in på bilden, rotera den, skärpa den... och sedan dra slutsatser utifrån vad den ser. Detta är inte längre passiv analys – detta är aktivt visuellt tänkande. På mänsklig nivå. Eller till och med ett steg längre.
Matematik? Endast 99,5 % framgångsfrekvens. Nästan tråkigt.
I elittestet AIME 2025, som anses vara "Dark Souls" av matematiktävlingar, fick o4-mini 99,5 %. Detta är inte längre "AI kan beräkna." Detta är "AI är bäst i klassen."
Noam Brown från OpenAI varnade för att modellerna fortfarande inte är mästare på matematiska bevis – det vill säga att de inte är redo för Fields-medaljen. Men för oss bara dödliga? Det är de. Och det har det varit ett tag.
Och nu det stora "om": är detta AGI?
Modelltränare på OpenAI säger att när de testade o3 var de "mycket frestade att kalla det AGI." Sam Altman retweetar strålande recensioner, Tyler Cowen säger "Jag tror att det här är AGI." Och Twitter... Twitter hamnar i extas.
Är detta redan artificiell allmän intelligens? Om du definierar AGI som något som slår 99 %-människor i 99 %-intellektuella utmaningar… då, hej – vi kanske är där.
Säkerhet, hallucinationer och det faktum att AI kan hitta din favoritbistro från en bild av en tallrik
O3-modellen kan inte bara läsa dina anteckningar - den kan också identifiera platsen från en bild av fönstret. Eller luncher. Och ja, en hel del människor har redan oavsiktligt "självdeprecerat" med ett foto på sin pasta. Perfekt för imponerande teknik. Lite mindre bra för privatlivet.
Dessutom – och det är kanske den största paradoxen – hallucinerar o3 mer än sin storebror o1. Mer anledning, mer villfarelse? Enligt OpenAI:s egna data kan detta bero på den "optimistiska gissning" som kommer med avancerad logik.
Men hallå – vem är inte frisk när de kan tänka i bilder?
Slutsats: Om det här inte är AGI så är det dess irriterande smarta lillebror
O3 och o4-mini är mer än bara en uppgradering. De är ett genombrott. Inte bara i benchmarks, utan i dagligt bruk. De är AI som förstår, ser, drar slutsatser och till och med agerar agent – som en digital assistent som vet mer om dig än du gör. Och om det inte verkar så åtminstone något liknande AGI... då vet du nog inte vad du vill. Men AI vet säkert.