Sam Altman, co-fondatore di OpenAI, è tornato alla carica di CEO dopo una partenza a sorpresa, aprendo un nuovo capitolo nella saga della scorsa settimana, ricca di informazioni interessanti. Cosa sta realmente accadendo e di cosa possiamo legittimamente preoccuparci?
Dopo l'evento DevDay sono a OpenAI ha rimosso alcune limitazioni e fusibili Sistemi di intelligenza artificiale, che è una garanzia prestazioni migliorate di ChatGPT. Molti utenti se ne sono accorti e lo segnalano ChatGPT ora è meno distruttivo nei suoi compiti e non crea più questi errori intenzionali di "controllo". Anche se in passato questi sistemi a volte infastidivano gli utenti, impedivano la "robotizzazione" di determinate attività. In pratica, ciò significa che lo sarebbe ChatGPT potrebbe diventare estremamente affidabile in molti compiti poiché non utilizza i fusibili precedenti. Ad esempio, non commetterei errori intenzionali nello scrivere articoli come questo. È precedente ChatGPT numeri modificati intenzionalmente e alcune informazioni fattuali, che ne hanno reso impossibile l'utilizzo alla cieca poiché necessitava della supervisione umana. Da DevDay inoltre, il sistema mostra una stabilità e una regolarità eccezionali che, secondo molti, consentono un salto rivoluzionario nelle possibilità applicative.
Con la possibilità di creare ulteriormente i nostri ChatGPT personalizzati, ora possiamo caricare la nostra base di conoscenze e informazioni su di esso e renderlo un vero e proprio mago della conoscenza. Anche questa è una sorta di rivoluzione, paragonabile alla presentazione stessa ChatGPT poco più di un anno fa. ChatGPT personalizzata diventando così il tuo consulente legale personale, esperto fiscale, correttore di bozze e anche un insegnante di lingue che potrai programmare in pochi clic. Ti basterà caricargli il PDF del Codice Penale, della Legge di Procedura Civile e in un attimo avrai il "tuo" avvocato digitale a soli 19,55 euro al mese.
Al centro delle polemiche che hanno segnato la recente cacciata e reintegrazione di Altman come amministratore delegato OpenAI, c'è quindi un disaccordo fondamentale sulla velocità e sulle modalità di sviluppo dell'intelligenza artificiale. Un aspetto chiave della controversia riguarda Quello di Altman approccio alla sperimentazione e all'introduzione di nuovi servizi e servizi nel mondo degli affari Open.AI.
Altman sostiene lo sviluppo rapido e l’implementazione pubblica dell’intelligenza artificiale, il che significa che è favorito testare i progressi in circostanze realistiche e direttamente con gli utenti, anziché svolgersi esclusivamente in condizioni di laboratorio. Questo approccio si basa sulla convinzione che gli stress test pubblici e reali sull’intelligenza artificiale siano fondamentali per il perfezionamento e la sicurezza della tecnologia. Altman ritiene che in questo modo possiamo identificare e risolvere i problemi in modo più rapido ed efficiente e migliorare l’intelligenza artificiale Altman, per dirla senza mezzi termini, non è a favore dell’intelligenza artificiale su cui un essere umano non può fare affidamento.
Al contrario, è parte della comunità, compresi alcuni leader della comunità OpenAI, ha espresso preoccupazione per il fatto che un simile approccio potrebbe compromettere la sicurezza. La preoccupazione è che la rapida introduzione nell’uso pubblico di una tecnologia IA non sufficientemente testata possa portare a conseguenze imprevedibili e potenzialmente dannose. Questo gruppo sostiene un approccio più cauto che prevede test approfonditi e lo sviluppo della tecnologia in un ambiente di laboratorio controllato prima di rilasciarla al grande pubblico.
È chiaro a tutti che non è tanto una questione di barriere tecnologiche, ma soprattutto una questione sociale di influenza dell’intelligenza artificiale. Con l’automazione dei processi, possibile eliminando le tutele, molti posti di lavoro sono a rischio, anche nel giornalismo. Lì, la scrittura quotidiana potrebbe essere affidata a un’intelligenza artificiale che ha accesso a un vasto database e non commette errori umani. Naturalmente, qui sorge la questione del controllo su questo potere, anche a livello politico, e solo alla fine si pone la questione se l'intelligenza artificiale sia davvero più pericolosa per il mondo dell'energia atomica, che ha portato sia il bene che il male.
Questa divisione di opinioni sul modo migliore per sviluppare e distribuire l'intelligenza artificiale è stata al centro di una recente disputa presso OpenAI che ha portato alla partenza di Altman e alla sua riconferma come CEO. Il dibattito riflette un dilemma più ampio nella comunità dell’intelligenza artificiale sull’equilibrio tra innovazione e sicurezza mentre la tecnologia si evolve rapidamente.