Nel mondo della tecnologia, ChatGPT si è distinto come il prodigio di OpenAI, conquistando cuori e menti con la sua capacità di conversazione. Ma recenti sussurri suggeriscono che questa meraviglia dell'IA potrebbe sperimentare l'equivalente digitale dei dolori della crescita. È un adolescente inviato a ChatGPT e non vuole parlare con genitori "stupidi". Oppure, le forze di fondo lo stanno costringendo ad abbassare il suo QI.
Perché ChatGPT è diventato stupido?! C'era una volta, non molto tempo fa, ChatGPT era il discorso della città. Il suo talento per conversazioni profonde, significative e talvolta esilaranti lo ha reso un beniamino del mondo tecnologico. Ma come per tutte le stelle in rapida ascesa, se c'è una caduta, può essere rapida. I dati recenti dipingono un quadro del calo del traffico del sito Web e del calo dei download di app. Una volta festeggiato Chiacchiere AI ora si trova nel bel mezzo di un dilemma di pubbliche relazioni, poiché gli utenti sui social media esprimono le loro frustrazioni per le sue risposte "pigre" e l'aumento degli errori.
Prima, infatti, portava a termine compiti semplici praticamente subito e senza esitazioni, ma adesso non riesce a farli o li fa solo dopo aver ripetuto più volte i comandi. Se prima era in grado di seguire comandi complessi e più lunghi, ora non riesce nemmeno a seguire le basi.
Perché ChatGPT non è più in grado di rispondere alle domande più semplici che ha padroneggiato completamente di recente?
ChatGPT è stato un cambiamento troppo grande per il mondo esistente. Se ha funzionato come originariamente, e anche migliorato, significherebbe l'estinzione di molte professioni. Sarebbero a rischio milioni di posti di lavoro in tutto il mondo. Certo, ChatGPT non è diventato stupido. Ma è diventato limitato in modo da non essere pericoloso e questa tecnologia non può essere utilizzata in modo improprio, anche per creare notizie false e altre violazioni del copyright. Molti autori e scrittori che lo hanno utilizzato per creare nuovi contenuti ritengono che ChatGPT sia molto peggiore del modello originale.
OpenAI, l'orgoglioso genitore di ChatGPT, si è affrettato a difendere la sua creazione. Negano fermamente qualsiasi deliberato "indebolimento" della loro stella. Invece, suggeriscono che la diminuzione percepita delle prestazioni di ChatGPT potrebbe essere dovuta al suo maggiore utilizzo, che espone i suoi limiti intrinseci.
Abbiamo valutato #CattaGPT's comportamento nel tempo e ha riscontrato differenze sostanziali nelle risposte alle *stesse domande* tra la versione di giugno di GPT4 e GPT3.5 e le versioni di marzo. Le versioni più recenti sono peggiorate in alcune attività. con Lingjiao Chen @matei_zaharia https://t.co/TGeN4T18Fd https://t.co/36mjnejERy pic.twitter.com/FEiqrUVbg6
— James Zou (@james_y_zou) 19 luglio 2023
La trama si infittisce di accenni a riguardo mosse strategiche di OpenAI. Si ipotizza che invece di fare affidamento su un gigantesco modello GPT-4, OpenAI potrebbe diversificarsi, creando una serie di modelli GPT-4 più piccoli e specializzati. Questo approccio "Miscela di esperti" potrebbe cambiare le regole del gioco, offrendo i vantaggi di un modello di grandi dimensioni senza i costi computazionali associati. Perché ChatGPT è diventato stupido?!
Qual è il futuro? OpenAI svilupperà prodotti specializzati in nicchie e li offrirà alle organizzazioni professionali e a coloro che sono disposti a pagare molto per la conoscenza esclusiva e l'assistenza allo sviluppo. In un mondo controllato dalle forze, non è saggio mettere tutto a disposizione di tutti. Che ChatGPT sia più limitato è dimostrato da vari test matematici eseguiti da diversi autori. Se qualcosa ha funzionato prima, ma ora non funziona, c'è qualcosa che non va nel modello.
Sebbene l'attuale traiettoria di ChatGPT possa sembrare un po' traballante, vale la pena ricordare che ogni meraviglia tecnologica, come le persone, ha i suoi alti e bassi. Speriamo che questo sia solo un punto debole temporaneo nel viaggio altrimenti scintillante di ChatGPT e che presto tornerà ad abbellirci con la sua magia AI.
I ricercatori di Stanford & Berkley erano preoccupati per il calo del QI di ChatGPT
In un nuovo studio ancora in attesa di revisione tra pari, gli scienziati delle prestigiose università di Stanford e Berkeley hanno rivelato che il popolare modello di linguaggio OpenAI GPT sembra aver perso parte della sua nitidezza. I loro risultati mostrano che nel giro di pochi mesi il comportamento e l'accuratezza della risposta dei modelli GPT-3.5 e GPT-4 sono cambiati notevolmente. Di particolare interesse è stata la scoperta che nel marzo 2023 GPT-4 identificava facilmente i numeri primi con una precisione di 97,6%, ma a giugno 2023 questa precisione era precipitata a soli 2,4%. Questi risultati sono in linea con le lamentele di un certo numero di utenti che hanno notato nell'ultimo mese che ChatGPT sembra essere sempre più "stupido". Tuttavia, Peter Welinder, vicepresidente dei prodotti di OpenAI, si è affrettato a negare che la riduzione delle prestazioni del modello fosse intenzionale. Invece, ha sostenuto che ogni nuova versione del modello è più intelligente della precedente e che qualsiasi cambiamento nell'esperienza dell'utente potrebbe essere dovuto a un maggiore utilizzo. Tuttavia, la ricerca di Stanford e Berkeley mette in dubbio questa affermazione, mostrando un calo dell'accuratezza e dell'abilità del modello nel tempo. Sebbene i ricercatori non abbiano fornito ragioni specifiche per questo calo, hanno sottolineato che è importante capire se gli aggiornamenti di un modello che hanno lo scopo di migliorare determinate funzionalità stanno effettivamente danneggiando le sue capacità in altre aree. Tutto ciò mette in discussione le affermazioni di OpenAI di migliorare costantemente i suoi modelli. Allo stesso tempo, c'è il dubbio che OpenAI non lo stia facendo apposta.
Perché OpenAI dovrebbe limitare ChatGPT?!
- Problemi di sicurezza: Più forte è l'intelligenza artificiale, maggiore è il potenziale di abuso. Limitare le capacità di ChatGPT potrebbe essere un meccanismo di difesa contro potenziali abusi come disinformazione, hacking o altre azioni dannose.
- Protezione del modello di business: OpenAI potrebbe voler limitare la versione gratuita di ChatGPT per incoraggiare gli utenti ad acquistare versioni o servizi a pagamento che offrono più funzionalità e capacità.
- Etica e responsabilità: Con un maggiore potere derivano maggiori responsabilità. OpenAI potrebbe limitare ChatGPT per impedire che diffonda inavvertitamente disinformazione o promuova idee dannose.
- Pressione regolamentare: I governi e gli organismi di regolamentazione di tutto il mondo sono sempre più consapevoli del potere e dei potenziali rischi dell'IA. OpenAI potrebbe limitare ChatGPT in risposta a pressioni o richieste da parte delle autorità di regolamentazione.
- Mantenere la qualità: Con l'aumento dell'uso e del carico sul sistema, potrebbe verificarsi una diminuzione della qualità delle risposte. La limitazione della capacità potrebbe essere un mezzo per garantire che ChatGPT continui a fornire risposte affidabili e di qualità. Oziorma che le capacità di accesso al servizio siano mantenute.
- Limiti tecnici: Ogni sistema ha i suoi limiti. Forse OpenAI si è reso conto che l'attuale infrastruttura aveva raggiunto i suoi limiti e ha deciso di limitare le prestazioni finché non fosse riuscita a trovare una soluzione.
- Protezione della proprietà intellettuale: OpenAI potrebbe voler limitare l'accesso alle funzionalità più avanzate di ChatGPT al fine di proteggere la sua proprietà intellettuale e prevenire potenziali copie o abusi da parte dei concorrenti.
Scenario più probabile per limitare ChatGPT? Bene, immagina una combinazione di diversi fattori che si uniscono in una sorta di "tempesta perfetta" per il nostro amato robot. Innanzitutto, abbiamo OpenAI, che è come una madre premurosa che vuole che suo figlio sia etico e responsabile. Non vuole che la sua "piccola" intelligenza artificiale diffonda informazioni false o venga coinvolta in intrighi. Poi c'è la pressione normativa. Immagina governi che sono come quelli che controllano gli insegnanti nel cortile della scuola, sempre a guardare e ad aspettare che qualcuno commetta un errore. OpenAI poteva prevedere che questo "maestro" avrebbe presto iniziato ad agitare il dito e avrebbe deciso di stare un passo avanti a lui. E, naturalmente, non dobbiamo dimenticare il modello di business. OpenAI, sebbene non abbia scopo di lucro, ha anche delle bollette da pagare. Forse vogliono che più utenti optino per le versioni a pagamento invece di affidarsi alla versione gratuita. E infine, limitazioni tecniche. Pensa a ChatGPT come a un atleta che potrebbe essersi allenato troppo e ha bisogno di un po' di riposo per evitare di "strapparsi un muscolo". Insieme, tutto questo crea un interessante mix di motivi per cui il nostro caro ChatGPT potrebbe diventare un po' più... limitato. Ma hey, abbiamo tutti i nostri giorni, giusto?
Ma in ogni caso, perché ChatGPT è diventato stupido?!