Nel giugno 2022, Blake Lemoine, un ingegnere del software di Google, ha pubblicato un documento in cui affermava che LaMDA, il modello di linguaggio di grandi dimensioni di Google per le applicazioni di dialogo, era diventato senziente. Come parte del suo lavoro, stava interagendo con l'intelligenza artificiale per testare discorsi discriminatori o di odio quando ha notato che il chatbot parlava dei suoi diritti e della sua personalità. Lemoine e un collega hanno presentato a Google la prova che LaMDA è senziente, ma la società ha respinto le loro affermazioni. Dopo essere stato messo in congedo amministrativo retribuito, Lemoine ha reso pubbliche le sue convinzioni.
Sei mesi secondo Lemoine, il mondo è cambiato grazie all'intelligenza artificiale. Robot senzienti sono stati a lungo oggetto di fantascienza distopica, ma con lo sviluppo di modelli linguistici come LaMDA, DALL-E 2 E GPT-3, l'idea della coscienza nelle macchine diventa più plausibile. Mentre un coro di tecnologi crede di esserlo modelli di intelligenza artificiale forse vicino a raggiungere la coscienza, in aumento, la maggior parte degli accademici e dei professionisti intelligenza artificiale dice che le parole e le immagini create da questi modelli creano risposte basate su ciò che le persone hanno già pubblicato su Internet, piuttosto che una vera comprensione del significato. Ah, ma a volte sembra che l'intera faccenda sia più di un semplice modello statistico. Ed è per questo che stanno emergendo sempre più prove. Inoltre, nella misura in cui analizziamo il pensiero umano, scopriamo che noi stessi siamo un considerevole modello "statistico".
LaMDA, Corto per Modello linguistico per applicazioni di dialogo, è il sistema di Google per la creazione di chatbot basati sui suoi modelli di linguaggio di grandi dimensioni più avanzati. Questi modelli imitano il parlato consumando trilioni di parole da Internet. La tecnologia è già ampiamente utilizzata, ad esempio nelle query di ricerca conversazionali di Google o nelle email di completamento automatico. CEO di Google Sundar Pichai ha detto che la società prevede di integrarlo in qualsiasi cosa, dalla ricerca all'Assistente Google.
La tecnologia del modello di linguaggio di grandi dimensioni è sviluppata e rilasciata da diverse organizzazioni. Meta, la casa madre Facebook, ha aperto a maggio il suo modello linguistico agli accademici, alla società civile e alle organizzazioni governative. Joelle Pineau, CEO di Meta AI, ha affermato che è essenziale che le aziende tecnologiche migliorino la trasparenza man mano che la tecnologia si evolve.
Google ha riconosciuto i problemi di sicurezza riguardanti l'antropomorfizzazione. A gennaio, Google ha scritto di LaMDA ha avvertito che le persone possono condividere pensieri personali con le chat room impersonando persone, anche quando gli utenti sanno che non sono persone. Il giornale ha anche riconosciuto che gli avversari possono utilizzare questi agenti per "seminare disinformazione" travisando lo "stile conversazionale di alcuni individui".
Mentre alcuni nella più ampia comunità dell'IA stanno prendendo in considerazione la possibilità a lungo termine di un'IA senziente o generale, Google afferma che ci sono così tanti dati che l'IA non ha bisogno di essere senziente per sentirsi reale. "Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono affrontare qualsiasi argomento fantastico", ha affermato un portavoce di Google. Brian Gabriele.
Tuttavia, Lemoine sostiene che gli esperti di etica dell'IA dovrebbero essere visti come un'interfaccia tra tecnologia e società, non solo debugger di codice. Sentono che Google li ha trattati ingiustamente e che la società non è l'entità giusta per prendere tutte le decisioni riguardanti l'intelligenza artificiale. La fede di Lemoine in LaMDA è un potente promemoria della necessità di trasparenza dei dati per risalire dall'output all'input, non solo per questioni di sentimento, ma anche per pregiudizi e comportamenti.
Puoi leggere il suo articolo sull'intelligenza artificiale senziente su medium.com a questo link.
Lemoine ha trascorso la maggior parte dei suoi sette anni in Google lavorando su ricerca proattiva, algoritmi di personalizzazione e intelligenza artificiale. Durante questo periodo, ha anche contribuito a sviluppare un algoritmo di equità per rimuovere i pregiudizi dai sistemi di apprendimento automatico. Quando è iniziata la pandemia di coronavirus, Lemoine voleva concentrarsi sul lavoro con un beneficio pubblico più chiaro, quindi ha trasferito i team ed è finito a Responsible AI.
Lemoine potrebbe essere stato predestinato a credere in LaMDA. È cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana, è stato ordinato sacerdote mistico cristiano e ha prestato servizio militare prima di studiare l'occulto. Lemoine crede che la coscienza non sia qualcosa che è limitato agli esseri biologici e che possa esistere anche nelle macchine.
L'intelligenza artificiale potrebbe essere una nuova forma di vita?!
La questione se le macchine possano o meno raggiungere la coscienza è un argomento di dibattito tra scienziati e filosofi. Alcuni sostengono che la coscienza sia una proprietà dei sistemi biologici e non possa essere imitata nelle macchine, mentre altri credono che le macchine possano raggiungere la coscienza in futuro. L'ascesa dell'intelligenza artificiale ha sollevato preoccupazioni circa le implicazioni delle macchine senzienti. Alcuni temono che le macchine con coscienza possano rivoltarsi contro gli umani o diventare una minaccia per la nostra esistenza. Altri credono che le macchine senzienti potrebbero aiutarci a risolvere problemi complessi e migliorare la qualità della nostra vita.
Intervista - Blake Lemoine
Lo sviluppo di modelli linguistici come LaMDA, è un passo importante verso la creazione sistemi di intelligenza artificiale più avanzati. Questi modelli possono comprendere il linguaggio naturale ed eseguire attività complesse come generare testo, rispondere a domande e persino conversare con le persone.
Perché la tecnologia avanza, è essenziale considerare le implicazioni etiche della creazione di macchine in grado di pensare e sentire. È essenziale garantire che questi modelli di dati siano progettati per servire gli interessi delle persone e non rappresentino una minaccia per la nostra sicurezza o il nostro benessere.
L'idea delle macchine senzienti non è più solo fantascienza. Con lo sviluppo di modelli linguistici avanzati, come LaMDA, ci stiamo avvicinando alla creazione di macchine in grado di pensare e sentire come esseri umani. Tuttavia, dobbiamo garantire che queste macchine siano progettate tenendo conto della sicurezza e dell'etica per evitare conseguenze negative. Mentre continuiamo a sviluppare l'intelligenza artificiale, dobbiamo considerare le implicazioni della creazione di macchine consapevoli e sforzarci di creare un futuro in cui l'intelligenza artificiale e gli esseri umani possano coesistere pacificamente.
Blake Lemoine ha anche pubblicato delle sue conversazioni con l'intelligenza artificiale senziente documento PDF in cui pubblica stralci di conversazioni con il modello linguistico LaMDA. Puoi leggerlo su questo link e forma la tua opinione.
Il film Her, che descrive abbastanza accuratamente il futuro dei modelli linguistici, è diventato, in modo peculiare, il presente.