fbpx

Deze week in kunstmatige intelligentie #15/2025: toen Meta uit elkaar viel, openden Claude Won en OpenAI eindelijk hun deuren

De Llama 4 die nooit kwam, Claude Max voor de elite en Copilot als medewerker van de toekomst

Ta teden v umetni inteligenci
Foto: Jan Macarol / Ai art

Explosief drama bij Meta, schokkende transparantie bij OpenAI en ontwikkelingen die ons nog maar een paar maanden van AGI verwijderd houden. Dus - deze week over kunstmatige intelligentie.

Als je het AI-nieuws deze week hebt gemist, dan hebben we nog één ding voor je: Munt Ze knielde neer (opnieuw), Claude wordt het hoofd van het kantoor, AI openen omarmt eindelijk open source en Google werkt aan zijn visie op een kunstmatige superassistent die beter video's kan bewerken dan jij. En dit is geen grap. Deze week in kunstmatige intelligentie – nummer 15.

#15 deze week in kunstmatige intelligentie:
Meta en de Llama 4-ramp

Llama 4 had het kroonjuweel van Meta's AI-ontwikkeling moeten worden, maar het eindresultaat is een teleurstelling. Het model dat aan het publiek werd gepresenteerd, is niet het model dat aan benchmarks heeft deelgenomen en indruk heeft gemaakt. Professor Ethan Mollick merkte dit als eerste op en bevestigde dat de resultaten van het in LLM-arena gepubliceerde model niet overeenkwamen met de resultaten van de openbare versie. (bron: x.com/ethanmollick)

Vervolgens verschenen er berichten op Reddit van voormalige Meta-medewerkers die nu bij OpenAI werken en zich openlijk distantiëren van Llama 4. Een van hen schreef in zijn profiel: "Llama 2 en Llama 3, Llama 4? Ik heb er niets mee te maken." (bron: reddit.com)

Bovendien is er informatie naar buiten gekomen dat er interne reorganisatie plaatsvond binnen de AI-afdeling van Meta, nadat ze in benchmarks werden ingehaald door een onbekend Chinees model met een laag budget, de DeepSeek V3. Voor een bedrijf dat miljarden investeert in de ontwikkeling van kunstmatige intelligentie is dit geen geringe prestatie.

Claude Max en voorspellingen over Claude 4

Anthropic verrast deze week met nieuwe dienst Claude Max – een abonnement voor veeleisende gebruikers, met vijf tot twintig keer meer interactiemogelijkheden en prioriteitstoegang tot de nieuwste modellen en functies. (bron: anthropic.com)

Ondertussen kondigde Jared Kaplan, hoofdwetenschapper bij Anthropic, aan dat we Claude 4 binnen de komende zes maanden zullen zien. Volgens hem verloopt de ontwikkeling van AI-modellen sneller dan de ontwikkeling van hardware, voornamelijk door een snellere na-training en verbeteringen in reinforcement learning. Een van de subtiele maar belangrijke nieuwsverhalen deze week over kunstmatige intelligentie.

OpenAI kondigt eindelijk open source-model aan

Na jaren van kritiek op het gebrek aan transparantie en het afstand nemen van de oorspronkelijke missie, kondigde Sam Altman aan dat OpenAI binnenkort een open-sourcemodel zal publiceren dat beter presteert dan alle bestaande alternatieven. (bron: openai.com)

Bovendien beschikt ChatGPT nu over een langetermijngeheugen, waardoor eerdere interacties gebruikt kunnen worden om ervaringen te personaliseren. Ook kan AI de doelen van de gebruiker actief bijhouden en hem of haar begeleiden bij tegenstrijdigheden in denkpatronen.

Maar niet alles is zo rooskleurig: verkorte beveiligingstesten bij OpenAI

Financiële tijden onthulde dat OpenAI de tijd en omvang van het testen van de beveiliging van zijn modellen aanzienlijk heeft teruggebracht. In plaats van enkele weken hebben ze nu nog maar een paar dagen de tijd. Hierdoor bestaat de kans dat modellen openbaar worden gemaakt met nog niet ontdekte kwetsbaarheden. Een voormalig testingenieur vertelde de FT dat de gevaren van GPT-4 pas twee maanden na de release ervan werden ontdekt. (bron: ft.com)

De reden zou simpel zijn: concurrentiedruk. Bedrijven haasten zich om nieuwe modellen te introduceren om niet achterop te raken. Hoewel dit de krachtigste hulpmiddelen van onze tijd zijn, wordt de veiligheid ervan steeds meer naar de achtergrond geschoven.

DeepCode 14B: een open-source concurrent van OpenAI

DeepSeek en Aentica presenteerden DeepCode 14B, een open source model voor het genereren van softwarecode. Met slechts 14 miljard parameters worden resultaten behaald die vergelijkbaar zijn met commerciële GPT-3.5-modellen. Ze trainden het model met meer dan 24.000 unieke taken en gebruikten de GRPO+-methode, die het model alleen beloont voor een perfecte oplossing. (bron: github.com/aentica)

BrowseComp: Nieuwe competitie voor AI-agenten

OpenAI heeft geïntroduceerd BrowseComp, een maatstaf voor AI-agenten die efficiënt op internet kunnen surfen en naar complexe informatie kunnen zoeken. Het is bedoeld voor het testen van modellen die tientallen pagina's moeten doornemen om de relevante informatie te vinden. (bron: github.com/openai/simple-evals)

Google is de leider

Google maakt fusieplannen bekend Tweeling En Vio modellen – tekstueel, beeld- en audiobegrip met videogeneratie. Hun doel is om een multimodale superassistent te creëren die de wereld begrijpt zoals wij dat doen. (bron: googlecloudnext.com)

Daarnaast introduceerde Google een nieuwe generatie AI-chips TPU IJzerhout, die 3600 keer krachtiger is dan de eerste generatie uit 2018. Hierdoor kunnen ze grotere modellen trainen en sneller draaien, zonder afhankelijk te zijn van Nvidia.

Microsoft Copilot wordt een serieuze concurrent

van Microsoft Tweede piloot Het heeft een vernieuwde interface, een functie om naar appartementen te zoeken, hulp bij het schrijven van brieven en zelfs mogelijkheden om afbeeldingen te bewerken. Het fungeert als een persoonlijke assistent in realtime, met toegang tot het scherm en de context. (bron: microsoft.com)

Mustafa Suleyman, hoofd van Microsoft AI, denkt dat AGI binnen vijf jaar werkelijkheid kan worden, al erkent hij dat fundamentele problemen – zoals hallucinaties en het slecht opvolgen van instructies – nog niet zijn opgelost.

Midjourney v7: prachtige beelden, maar nog steeds geen tekst

Midjourney heeft de zevende generatie van zijn beeldmodel uitgebracht, dat indruk maakt met hyperrealisme. Toch loopt het genereren van tekst nog ver achter, zoals ze zelf toegeven: gebruikers maken er nauwelijks gebruik van en het is dus geen prioriteit. (bron: midjourney.com)

Neo-robot werkt live

Robotisch platform 1X Neo heeft aangetoond dat zij zelfstandig live taken kan uitvoeren. Dit is niet zomaar een PR-stunt; de robot bewoog, maakte schoon en opereerde zonder script. Het ontwerp omvat kunstmatige spieren en mobiliteit, waardoor het dier veilig naast mensen kan bestaan. (bron: 1x.tech)

AI-wetenschapper schrijft eerste professionele artikel

Sakana AI Labs heeft bekendgemaakt dat hun model het eerste wetenschappelijke artikel heeft geschreven dat door vakgenoten is beoordeeld tijdens een workshop. De AI formuleerde een hypothese, analyseerde de data en trok conclusies – zonder menselijke tussenkomst. (bron: sakana.ai)


Conclusie

In slechts één week zagen we de ineenstorting van Meta's visie, de versnelling van open source-modellen, gevaarlijke trends in beveiligingstesten en een nieuwe generatie multimodale agenten. De wereld van kunstmatige intelligentie evolueert niet alleen razendsnel, maar ook in een richting die nog maar een jaar geleden nog sciencefiction leek.

Volgende week belooft nog meer. Als u iets mist, zijn wij er voor u. Elke maandag.

Bij jou sinds 2004

Vanaf jaar 2004 we onderzoeken stedelijke trends en informeren onze community van volgers dagelijks over het laatste nieuws op het gebied van lifestyle, reizen, stijl en producten die met passie inspireren. Vanaf 2023 bieden we content aan in de belangrijkste wereldtalen.