Eksplosivt drama hos Meta, sjokkerende åpenhet hos OpenAI og utvikling som satte oss bare måneder unna AGI. Så - denne uken i kunstig intelligens.
Hvis du gikk glipp av AI-nyhetene denne uken, la oss fortelle deg bare én ting: Mynte hun knelte ned (igjen), Claude blir leder av kontoret, OpenAI omfavner endelig åpen kildekode, og Google utvikler sin visjon om en kunstig superassistent som kan redigere video bedre enn deg. Og dette er ingen spøk. Dette er denne uken i kunstig intelligens – nummer 15.
#15 denne uken innen kunstig intelligens:
Meta og Llama 4-katastrofen
Llama 4 skulle være kronjuvelen i Metas AI-utvikling, men sluttresultatet er en skuffelse. Modellen som ble presentert for publikum er ikke den som deltok i benchmarks og imponerte. Dette ble først lagt merke til av professor Ethan Mollick, som bekreftet at resultatene av modellen publisert i LLM-arena ikke samsvarte med de som ble oppnådd av den offentlige versjonen. (kilde: x.com/ethanmollick)
Innlegg dukket deretter opp på Reddit fra tidligere Meta-ansatte som nå jobber i OpenAI, og tar åpent avstand fra Llama 4. En av dem skrev i profilen sin: «Llama 2 og Llama 3, Llama 4? Jeg har ingenting med det å gjøre.» (kilde: reddit.com)
I tillegg har det dukket opp informasjon om at en intern rystelse i Metas AI-divisjon ble utløst da de ble forbigått i benchmarks av en ukjent og lavbudsjett kinesisk modell, DeepSeek V3. For et selskap som investerer milliarder i å utvikle kunstig intelligens, er dette ingen liten prestasjon.
Claude Max og spådommer om Claude 4
Anthropic overrasket med en ny tjeneste denne uken Claude Max – en abonnementsplan for krevende brukere, som tilbyr fem til tjue ganger interaksjonskvoten, prioritert tilgang til de nyeste modellene og funksjonene. (kilde: anthropic.com)
I mellomtiden kunngjorde Jared Kaplan, sjefforsker ved Anthropic, at vi vil se Claude 4 innen de neste seks månedene. Ifølge ham skjer utviklingen av AI-modeller raskere enn utviklingen av maskinvare, hovedsakelig på grunn av akselerert ettertrening og forbedringer i forsterkningslæring. En av de subtile, men store nyhetssakene denne uken innen kunstig intelligens.
OpenAI kunngjør endelig åpen kildekode-modell
Etter år med kritikk for mangel på åpenhet og distansering fra sitt opprinnelige oppdrag, kunngjorde Sam Altman at OpenAI snart vil gi ut en åpen kildekode-modell som vil utkonkurrere alle eksisterende alternativer. (kilde: openai.com)
Dessuten har ChatGPT nå langtidsminne, som gjør at tidligere interaksjoner kan brukes til å tilpasse opplevelser, og lar brukeren ha AI aktivt til å spore målene sine og veilede dem gjennom inkompatibiliteter i tankemønstre.
Men ikke alt er så rosenrødt: forkortet sikkerhetstesting hos OpenAI
Financial Times avslørte at OpenAI har redusert tiden og omfanget av å teste sikkerheten til modellene sine betydelig. I stedet for flere uker har de nå bare noen få dager, noe som vekker bekymring for at modeller kan bli utgitt offentlig med uoppdagede sårbarheter. En tidligere testingeniør fortalte FT at farene ved GPT-4 ble oppdaget bare to måneder etter utgivelsen. (kilde: ft.com)
Årsaken sies å være enkel – konkurransepress. Bedrifter skynder seg å introdusere nye modeller for ikke å falle på etterskudd. Og selv om dette er de kraftigste verktøyene i vår tid, presses sikkerheten til marginene.
DeepCode 14B: en åpen kildekode-konkurrent til OpenAI
DeepSeek og Aentica presentert DeepCode 14B, en åpen kildekode-modell for generering av programvarekode. Med bare 14 milliarder parametere oppnår den resultater som kan sammenlignes med kommersielle GPT-3.5-modeller. De trente den med mer enn 24 000 unike oppgaver og brukte GRPO+-metoden, som kun belønner modellen for en perfekt løsning. (kilde: github.com/aentica)
BrowseComp: Ny liga for AI-agenter
OpenAI har introdusert Bla gjennomComp, en målestokk for AI-agenter som effektivt kan surfe på nettet og søke etter kompleks informasjon. Den er beregnet på å teste modeller som må bla gjennom dusinvis av sider for å komme til relevant informasjon. (kilde: github.com/openai/simple-evals)
Google leder spillet
Google avduker fusjonsplaner Tvillingene og Vio modeller – tekst-, bilde- og lydforståelse med videogenerering. Målet deres er å lage en multimodal superassistent som forstår verden slik vi gjør. (kilde: googlecloudnext.com)
I tillegg introduserte Google en ny generasjon AI-brikker TPU Ironwood, som er 3600 ganger kraftigere enn første generasjon fra 2018. Dette gjør at de kan trene større modeller og kjøre dem raskere uten å være avhengig av Nvidia.
Microsoft Copilot er i ferd med å bli en seriøs konkurrent
Microsofts Co-pilot Den har et redesignet grensesnitt, funksjoner for leilighetssøk, hjelp med å skrive bokstaver og til og med bilderedigeringsmuligheter. Den fungerer som en sanntids personlig assistent, med tilgang til skjermen og konteksten. (kilde: microsoft.com)
Mustafa Suleyman, leder for Microsoft AI, tror AGI kan være her innen fem år, selv om han erkjenner at grunnleggende problemer – som hallusinasjoner og dårlig instruksjonsfølelse – ennå ikke er løst.
Midjourney v7: fantastiske bilder, men fortsatt ingen tekst
Midjourney har gitt ut den syvende generasjonen av sin bildemodell, som imponerer med hyperrealisme. Imidlertid henger tekstgenerering fortsatt langt etter, som de selv innrømmer – brukerne bruker den nesten ikke, så det er ikke en prioritet. (kilde: midjourney.com)
Neo robot som fungerer live
Robotplattform 1X Neo har vist at hun kan utføre live-oppgaver selvstendig. Dette er ikke bare enda et PR-stunt; roboten flyttet, renset, opererte uten skript. Designet inkluderer kunstige muskler og mobilitet som gjør at den trygt kan sameksistere med mennesker. (kilde: 1x.tech)
AI-forsker skriver første profesjonelle artikkel
Sakana AI Labs kunngjorde at modellen deres har skrevet den første vitenskapelige artikkelen som har bestått fagfellevurdering på en workshop. AI formulerte en hypotese, analyserte dataene og trakk konklusjoner – uten menneskelig hjelp. (kilde: sakana.ai)
Konklusjon
På bare én uke så vi kollapsen av Metas visjon, akselerasjonen av åpen kildekode-modeller, farlige trender innen sikkerhetstesting og en ny generasjon multimodale agenter. Verden av kunstig intelligens utvikler seg ikke bare raskt – den utvikler seg i en retning som virket som science fiction for bare et år siden.
Neste uke lover enda mer. Hvis du savner noe, er vi her. Hver mandag.