Dramma esplosivo a Meta, trasparenza sconvolgente a OpenAI e sviluppi che ci porteranno a pochi mesi dall'AGI. Dunque, questa settimana parliamo di intelligenza artificiale.
Se vi siete persi le novità sull'intelligenza artificiale di questa settimana, lasciateci dirvi solo una cosa: menta si inginocchiò (di nuovo), Claude divenne il capo dell'ufficio, OpenAI sta finalmente abbracciando l'open source e Google sta sviluppando la sua visione di un super assistente artificiale in grado di modificare i video meglio di te. E questo non è uno scherzo. Questo è il numero di questa settimana dell'intelligenza artificiale: 15.
#15 questa settimana nell'intelligenza artificiale:
Meta e il disastro del Llama 4
Llama 4 avrebbe dovuto essere il fiore all'occhiello dello sviluppo dell'intelligenza artificiale di Meta, ma il risultato finale è una delusione. Il modello presentato al pubblico non è quello che ha partecipato ai benchmark e che ha fatto impressione. A notarlo per primo è stato il professor Ethan Mollick, che ha confermato che i risultati del modello pubblicato su LLM-arena non corrispondevano a quelli ottenuti dalla versione pubblica. (fonte: x.com/ethanmollick)
Su Reddit sono poi apparsi post di ex dipendenti di Meta che ora lavorano per OpenAI, prendendo apertamente le distanze da Llama 4. Uno di loro ha scritto sul suo profilo: "Llama 2 e Llama 3, Llama 4? Non c'entro niente". (fonte: reddit.com)
Inoltre, sono emerse informazioni secondo cui si sarebbe verificato un riassetto interno nella divisione AI di Meta, quando quest'ultima è stata superata nei benchmark da un modello cinese sconosciuto e a basso budget, il DeepSeek V3. Per un'azienda che investe miliardi nello sviluppo dell'intelligenza artificiale, non si tratta di un'impresa da poco.
Claude Max e le previsioni su Claude 4
Anthropic sorprende con un nuovo servizio questa settimana Claude Max – un piano di abbonamento per utenti esigenti, che offre una quota di interazione da cinque a venti volte superiore, accesso prioritario agli ultimi modelli e funzionalità. (fonte: anthropic.com)
Nel frattempo, Jared Kaplan, capo scienziato di Anthropic, ha annunciato che vedremo Claude 4 entro i prossimi sei mesi. Secondo lui, lo sviluppo dei modelli di intelligenza artificiale sta avvenendo più rapidamente dello sviluppo dell'hardware, principalmente grazie all'accelerazione della post-formazione e ai miglioramenti nell'apprendimento per rinforzo. Una delle notizie più sottili ma importanti di questa settimana nel campo dell'intelligenza artificiale.
OpenAI annuncia finalmente il modello open source
Dopo anni di critiche per la mancanza di trasparenza e per l'allontanamento dalla sua missione originale, Sam Altman ha annunciato che OpenAI rilascerà presto un modello open source che supererà in prestazioni tutte le alternative esistenti. (fonte: openai.com)
Inoltre, ChatGPT ora ha una memoria a lungo termine, che consente di utilizzare le interazioni passate per personalizzare le esperienze e consente all'utente di utilizzare l'intelligenza artificiale per monitorare attivamente i propri obiettivi e guidarlo attraverso le incompatibilità nei modelli di pensiero.
Ma non è tutto così roseo: test di sicurezza abbreviati su OpenAI
Financial Times ha rivelato che OpenAI ha ridotto significativamente i tempi e la portata dei test di sicurezza dei suoi modelli. Invece di diverse settimane, ora hanno solo pochi giorni, il che solleva preoccupazioni sul fatto che i modelli potrebbero essere rilasciati al pubblico con vulnerabilità non scoperte. Un ex ingegnere collaudatore ha dichiarato al FT che i pericoli del GPT-4 sono stati scoperti solo due mesi dopo la sua diffusione. (fonte: ft.com)
Si dice che il motivo sia semplice: la pressione competitiva. Le aziende si affrettano a lanciare nuovi modelli per non restare indietro. E nonostante questi siano gli strumenti più potenti del nostro tempo, la sicurezza viene relegata ai margini.
DeepCode 14B: un concorrente open source di OpenAI
DeepSeek e Aentica presentati Codice profondo 14B, un modello open source per la generazione di codice software. Con soli 14 miliardi di parametri, ottiene risultati paragonabili ai modelli commerciali GPT-3.5. Lo hanno addestrato con più di 24.000 attività uniche e hanno utilizzato il metodo GRPO+, che premia il modello solo per una soluzione perfetta. (fonte: github.com/aentica)
BrowseComp: Nuova lega per agenti AI
OpenAI ha introdotto BrowseComp, un punto di riferimento per gli agenti di intelligenza artificiale in grado di navigare in modo efficiente sul web e cercare informazioni complesse. È destinato ai modelli di prova che devono sfogliare decine di pagine per arrivare alle informazioni rilevanti. (fonte: github.com/openai/simple-evals)
Google è in testa alla classifica
Google svela i piani di fusione Gemelli E Vio modelli – comprensione testuale, di immagini e audio con generazione video. Il loro obiettivo è creare un super assistente multimodale che capisca il mondo come noi. (fonte: googlecloudnext.com)
Inoltre, Google ha introdotto una nuova generazione di chip AI TPU Ironwood, che è 3600 volte più potente della prima generazione del 2018. Ciò consente loro di addestrare modelli più grandi ed eseguirli più velocemente senza dipendere da Nvidia.
Microsoft Copilot sta diventando un serio concorrente
Quello di Microsoft Copilota Ha un'interfaccia riprogettata, funzioni di ricerca degli appartamenti, assistenza nella scrittura delle lettere e persino capacità di modifica delle immagini. Funziona come un assistente personale in tempo reale, con accesso allo schermo e al contesto. (fonte: microsoft.com)
Mustafa Suleyman, responsabile dell'intelligenza artificiale di Microsoft, ritiene che l'AGI potrebbe essere disponibile entro cinque anni, pur riconoscendo che i problemi di base, come le allucinazioni e la scarsa capacità di seguire le istruzioni, non sono ancora stati risolti.
Midjourney v7: immagini spettacolari, ma ancora nessun testo
Midjourney ha rilasciato la settima generazione del suo modello di imaging, che colpisce per l'iperrealismo. Tuttavia, la generazione di testo è ancora molto indietro, come ammettono loro stessi: gli utenti la utilizzano raramente, quindi non è una priorità. (fonte: midjourney.com)
Neo robot che lavora in diretta
piattaforma robotica 1X Neo ha dimostrato di poter svolgere compiti in modo autonomo. Non si tratta di un'altra trovata pubblicitaria; il robot si muoveva, puliva, operava senza copioni. Il suo design prevede muscoli artificiali e una mobilità che gli consente di coesistere in sicurezza con gli esseri umani. (fonte: 1x.tech)
Uno scienziato dell'intelligenza artificiale scrive il suo primo articolo professionale
Sakana AI Labs ha annunciato che il suo modello ha prodotto il primo articolo scientifico ad aver superato la revisione paritaria in un workshop. L'intelligenza artificiale ha formulato un'ipotesi, analizzato i dati e tratto conclusioni, senza l'intervento umano. (fonte: sakana.ai)
Conclusione
In una sola settimana abbiamo assistito al crollo della visione di Meta, all'accelerazione dei modelli open source, a tendenze pericolose nei test di sicurezza e a una nuova generazione di agenti multimodali. Il mondo dell'intelligenza artificiale non solo si sta evolvendo rapidamente, ma sta anche evolvendo in una direzione che solo un anno fa sembrava fantascienza.
La prossima settimana promette ancora di più. Se ti perdi qualcosa, noi saremo qui. Ogni lunedì.