GPT-4.5, l'ultimo modello di intelligenza artificiale di OpenAI Labs, è il primo ad aver superato con successo il famoso test di Turing. In un recente studio scientifico, 73 partecipanti al test % credevano di comunicare con una persona reale e non con un algoritmo. Ma se da un lato si tratta di un risultato impressionante, dall'altro solleva anche alcuni interrogativi piuttosto inquietanti.
Nel 1950, Alan Turing pose una semplice domanda: una macchina può pensare? E se non pensa esattamente, può convincere una persona a pensare? Nacque così il famoso test di Turing, la prova definitiva per l'intelligenza artificiale. BENE, GPT-4.5 Ora, a quanto pare, per la prima volta nella storia, è riuscito davvero a sopportarlo. Ma prima di iniziare ad applaudire la macchina, diamo un'occhiata a cosa significa realmente e perché potremmo essere preoccupati.
In che modo GPT-4.5 ha ingannato l'umanità (o lo ha fatto)?
Gli scienziati Cameron Jones e Benjamin Bergen dell'Università della California, San Diego, in uno studio pubblicato su arXiv (Fonte: arxiv.org), ha condotto un esperimento in cui i partecipanti hanno cercato di determinare chi fosse un essere umano e chi un'intelligenza artificiale in 500 conversazioni di testo. In ogni conversazione, interagivano con due interlocutori, un essere umano e un modello di intelligenza artificiale, e avevano esattamente cinque minuti per prendere una decisione.
Risultati? Il GPT-4.5 ha convinto 73 soggetti del test % che si trattava di una persona reale, con maggiore successo rispetto ai veri interlocutori umani! Se questo non è un miracolo digitale, allora non sappiamo cosa lo sia.
Persone vere, che hanno partecipato come gruppo di controllo, sono stati identificati con successo come esseri umani solo in 67 casi %.
Qual è il segreto del successo?
Non si trattava solo di pura potenza di elaborazione o di comprensione. La chiave stava nel "persona prompt", un comando che faceva sì che GPT-4.5 si comportasse come un giovane introverso e un po' cinico, utilizzando il gergo attuale di Internet. E se lo si guarda in poche parole, si scopre che un personaggio del genere sembra del tutto plausibile. Forse anche troppo.
Altri modelli testati hanno avuto risultati molto peggiori:
- LLaMa-3.1: 56 % prestazioni
- GPT-4o: 21 % prestazioni
- ELIZA (chatbot leggendario degli anni '60): 23 prestazioni %
Ciò significa che GPT-4.5 è davvero intelligente?
Non esattamente. Il test di Turing non misura la coscienza, la comprensione o l'intelligenza profonda, ma la capacità di imitare. Quindi GPT-4.5 ha imparato come apparire come un essere umano, ma non come diventarlo. Oppure come dicono gli scienziati: "Il modello non sa di sapere". Questa differenza è importante. Possiamo dire che GPT-4.5 è un maestro del bluff, un illusionista nel mondo degli algoritmi. Ma questi illusionisti, se usati nel modo sbagliato, possono rapidamente trasformarsi in impostori.
Perché dovremmo preoccuparci di questo?
Se l'intelligenza artificiale riesce a imitare le persone meglio delle persone stesse, cosa significa questo per la verifica dell'identità online, per le relazioni e per la manipolazione dell'opinione pubblica? In futuro l'intelligenza artificiale potrebbe scrivere rubriche, condurre interviste e persuadere gli elettori?
I ricercatori sottolineano che la società deve riflettere seriamente sul modo in cui regoliamo modelli così potenti. Al giorno d'oggi, chiunque può generare conversazioni, commenti, opinioni false e convincenti... e chissà cos'altro segue, con pochi clic.
Conclusione: abbiamo già l'AGI?
GPT-4.5 non è solo l'ennesimo chatbot intelligente. È una pietra miliare. È la prova che siamo entrati in una nuova era, un'era in cui le macchine non solo comprendono il linguaggio, ma lo usano con tale sottigliezza e contesto da riuscire a ingannare persino noi.
È affascinante. È spaventoso. Questo è il futuro.
E il futuro, a quanto pare, sa scrivere piuttosto bene.