fbpx

Denne uge i kunstig intelligens #15/2025: Da Meta faldt fra hinanden, Claude vandt og OpenAI endelig åbnede sine døre

Llama 4 der aldrig var, Claude Max for eliten og Copilot som fremtidens samarbejdspartner

Ta teden v umetni inteligenci
Foto: Jan Macarol / Ai art

Eksplosivt drama hos Meta, chokerende gennemsigtighed hos OpenAI og udvikling, der satte os kun måneder væk fra AGI. Altså - denne uge i kunstig intelligens.

Hvis du gik glip af AI-nyhederne i denne uge, så lad os fortælle dig én ting: Mynte hun knælede (igen), Claude bliver leder af kontoret, OpenAI omfavner endelig open source, og Google udvikler sin vision om en kunstig superassistent, der kan redigere video bedre end dig. Og dette er ingen joke. Dette er denne uge i kunstig intelligens – nummer 15.

#15 i denne uge i kunstig intelligens:
Meta og Llama 4-katastrofen

Llama 4 skulle være kronen på værket i Metas AI-udvikling, men slutresultatet er en skuffelse. Den model, der blev præsenteret for offentligheden, er ikke den, der deltog i benchmarks og imponerede. Dette blev først bemærket af professor Ethan Mollick, som bekræftede, at resultaterne af modellen offentliggjort i LLM-arena ikke matchede dem, der blev opnået med den offentlige version. (kilde: x.com/ethanmollick)

Indlæg dukkede derefter op på Reddit fra tidligere Meta-medarbejdere, som nu arbejder hos OpenAI, og tog åbent afstand fra Llama 4. En af dem skrev i sin profil: "Llama 2 og Llama 3, Llama 4? Jeg har intet med det at gøre." (kilde: reddit.com)

Derudover er der kommet oplysninger om, at en intern rystelse i Metas AI-division blev udløst, da de blev overhalet i benchmarks af en ukendt og lavbudget kinesisk model, DeepSeek V3. For en virksomhed, der investerer milliarder i at udvikle kunstig intelligens, er dette ingen ringe præstation.

Claude Max og forudsigelser om Claude 4

Anthropic overraskede med en ny tjeneste i denne uge Claude Max – en abonnementsplan for krævende brugere, der tilbyder fem til tyve gange højere interaktionskvote, prioriteret adgang til de nyeste modeller og funktioner. (kilde: anthropic.com)

I mellemtiden annoncerede Jared Kaplan, chefforsker ved Anthropic, at vi vil se Claude 4 inden for de næste seks måneder. Ifølge ham sker udviklingen af AI-modeller hurtigere end udviklingen af hardware, primært på grund af accelereret eftertræning og forbedringer i forstærkningslæring. En af de subtile, men store nyhedshistorier i denne uge inden for kunstig intelligens.

OpenAI annoncerer endelig open source-model

Efter flere års kritik for manglende gennemsigtighed og distancering fra sin oprindelige mission, annoncerede Sam Altman, at OpenAI snart vil frigive en open source-model, der vil overgå alle eksisterende alternativer. (kilde: openai.com)

Desuden har ChatGPT nu langtidshukommelse, som gør det muligt at bruge tidligere interaktioner til at tilpasse oplevelser, og giver brugeren mulighed for at lade AI aktivt spore deres mål og guide dem gennem uforeneligheder i tankemønstre.

Men ikke alt er så rosenrødt: forkortet sikkerhedstest hos OpenAI

Financial Times afslørede, at OpenAI markant har reduceret tiden og omfanget af testning af sikkerheden af sine modeller. I stedet for flere uger har de nu kun et par dage, hvilket giver anledning til bekymring for, at modeller kunne frigives offentligt med uopdagede sårbarheder. En tidligere testingeniør fortalte FT, at farerne ved GPT-4 blev opdaget kun to måneder efter dets frigivelse. (kilde: ft.com)

Årsagen siges at være simpel - konkurrencepres. Virksomheder skynder sig at introducere nye modeller for ikke at komme bagud. Og selvom disse er de mest kraftfulde værktøjer i vores tid, bliver sikkerheden skubbet til marginerne.

DeepCode 14B: en open source-konkurrent til OpenAI

DeepSeek og Aentica præsenteret DeepCode 14B, en open source-model til generering af softwarekode. Med kun 14 milliarder parametre opnår den resultater, der kan sammenlignes med kommercielle GPT-3.5-modeller. De trænede den med mere end 24.000 unikke opgaver og brugte GRPO+ metoden, som kun belønner modellen for en perfekt løsning. (kilde: github.com/aentica)

BrowseComp: Ny liga for AI-agenter

OpenAI har introduceret GennemseComp, et benchmark for AI-agenter, der effektivt kan browse på nettet og søge efter kompleks information. Det er beregnet til at teste modeller, der skal gennemse snesevis af sider for at komme til den relevante information. (kilde: github.com/openai/simple-evals)

Google leder spillet

Google løfter sløret for fusionsplaner tvilling og Vio modeller – tekst-, billed- og lydforståelse med videogenerering. Deres mål er at skabe en multimodal superassistent, der forstår verden, ligesom vi gør. (kilde: googlecloudnext.com)

Derudover introducerede Google en ny generation af AI-chips TPU Ironwood, som er 3600 gange kraftigere end den første generation fra 2018. Det giver dem mulighed for at træne større modeller og køre dem hurtigere uden afhængighed af Nvidia.

Microsoft Copilot er ved at blive en seriøs konkurrent

Microsofts Co-pilot Den har en nydesignet grænseflade, lejlighedssøgningsfunktioner, hjælp til at skrive bogstaver og endda billedredigeringsfunktioner. Den fungerer som en personlig assistent i realtid med adgang til skærmen og konteksten. (kilde: microsoft.com)

Mustafa Suleyman, leder af Microsoft AI, mener, at AGI kan være her inden for fem år, selvom han erkender, at grundlæggende problemer – såsom hallucinationer og dårlig instruktionsfølelse – endnu ikke er løst.

Midjourney v7: fantastiske billeder, men stadig ingen tekst

Midjourney har udgivet syvende generation af sin billedmodel, som imponerer med hyperrealisme. Tekstgenerering halter dog stadig langt bagefter, som de selv indrømmer – brugerne bruger det næsten ikke, så det er ikke en prioritet. (kilde: midjourney.com)

Neo robot, der fungerer live

Robot platform 1X Neo har vist, at hun kan udføre levende opgaver selvstændigt. Dette er ikke bare endnu et PR-stunt; robotten flyttede, rensede, opererede uden scripts. Dens design inkluderer kunstige muskler og mobilitet, der gør det muligt at sameksistere sikkert med mennesker. (kilde: 1x.tech)

AI-forsker skriver første faglige artikel

Sakana AI Labs meddelte, at deres model har skrevet den første videnskabelige artikel, der har bestået peer review på en workshop. AI’en formulerede en hypotese, analyserede dataene og trak konklusioner – uden menneskelig assistance. (kilde: sakana.ai)


Konklusion

På bare en uge så vi sammenbruddet af Metas vision, accelerationen af open source-modeller, farlige tendenser inden for sikkerhedstestning og en ny generation af multimodale agenter. Verden af kunstig intelligens udvikler sig ikke kun hurtigt – den udvikler sig i en retning, der lignede science fiction for blot et år siden.

Næste uge lover endnu mere. Hvis du savner noget, er vi her. Hver mandag.

Med dig siden 2004

Fra år 2004 vi forsker i urbane tendenser og informerer vores fællesskab af følgere dagligt om det seneste inden for livsstil, rejser, stil og produkter, der inspirerer med passion. Fra 2023 tilbyder vi indhold på store globale sprog.