2022년 6월 Google의 소프트웨어 엔지니어인 Blake Lemoine은 대화 애플리케이션을 위한 Google의 대규모 언어 모델인 LaMDA가 지각력을 갖게 되었다고 주장하는 논문을 발표했습니다. 직업의 일환으로 AI와 상호 작용하여 차별적이거나 증오심 표현을 테스트하던 중 챗봇이 자신의 권리와 성격에 대해 이야기하는 것을 발견했습니다. Lemoine과 동료는 Google에 LaMDA가 지각력이 있다는 증거를 제시했지만 회사는 그들의 주장을 거부했습니다. 유급 행정 휴가를 받은 후 Lemoine은 자신의 신념을 공개했습니다.
Šest mesecev po Lemoinovih trditvah se je svet spremenil zaradi umetne inteligence. Čuteči roboti so že dolgo tema distopične znanstvene fantastike, toda z razvojem jezikovnih modelov, kot so LaMDA, DALL-E 2 그리고 GPT-3, postaja ideja o zavesti v strojih bolj verjetna. Medtem ko zbor tehnologov, ki verjamejo, da so modeli umetne inteligence morda blizu doseganju zavesti, narašča, večina akademikov in praktikov 인공 지능 pravi, da besede in slike, ki jih ustvarijo ti modeli, ustvarjajo odzive, ki temeljijo na tem, kar so ljudje že objavili na internetu, in ne na resničnem razumevanju pomena. A, vendar se na trenutke zdi, da je vse skupaj več kot le statistični model. In zato nastaja vedno več dokazov. Tudi, v kolikor analiziramo človeško razmišljanje ugotovimo, da smo tudi sami precejšen “statistični ” model.
LaMDA, okrajšava za Language Model for Dialogue Applications, je Googlov sistem za gradnjo chatbotov, ki temelji na njegovih najnaprednejših velikih jezikovnih modelih. Ti modeli posnemajo govor tako, da zaužijejo trilijone besed iz interneta. Tehnologija se že pogosto uporablja, na primer v Googlovih pogovornih iskalnih poizvedbah ali samodokončanih e-poštnih sporočilih. Izvršni direktor Googla 순다르 피차이 je dejal, da ga namerava podjetje vgraditi v vse, od iskanja do Googlovega pomočnika.
Tehnologijo velikega jezikovnega modela razvija in izdaja več organizacij. Meta, matična družba 페이스북, je maja odprla svoj jezikovni model akademikom, civilni družbi in vladnim organizacijam. Joelle Pineau, generalna direktorica Meta AI, je dejala, da je bistveno, da tehnološka podjetja izboljšajo preglednost, ko se tehnologija razvija.
Google je priznal varnostne pomisleke v zvezi z antropomorfizacijo. Google je januarja v prispevku o LaMDA opozoril, da lahko ljudje delijo osebne misli s klepetalniki, ki se lažno predstavljajo kot ljudje, tudi če uporabniki vedo, da niso ljudje. Časopis je tudi priznal, da lahko nasprotniki uporabijo te agente za “sejanje dezinformacij” z lažnim predstavljanjem “pogovornega sloga določenih posameznikov”.
Medtem ko nekateri v širši skupnosti umetne inteligence razmišljajo o dolgoročni možnosti čuteče ali splošne umetne inteligence, Google pravi, da je podatkov toliko, da ni treba, da je umetna inteligenca čuteča, da bi se počutila resnično. “Ti sistemi posnemajo vrste izmenjav, ki jih najdemo v milijonih stavkov, in se lahko lotijo katere koli fantastične teme,” je dejal tiskovni predstavnik Googla Brian Gabriel.
Vendar Lemoine trdi, da je treba etike umetne inteligence obravnavati kot vmesnik med tehnologijo in družbo, ne le kot razhroščevalce kode. Meni, da jih je Google obravnaval nepošteno in da podjetje ni pravi subjekt, ki bi sprejemal vse odločitve glede umetne inteligence. Lemoinovo prepričanje v LaMDA je močan opomnik o potrebi po preglednosti podatkov za sledenje izhoda nazaj do vnosa, ne samo za vprašanja občutka, ampak tudi za pristranskost in vedenje.
Na tej povezavi si lahko preberete njegov zapis o čuteči umetni inteligenci na medium.com.
Lemoine se je večino svojih sedmih let pri Googlu ukvarjal s proaktivnim iskanjem, algoritmi za personalizacijo in umetno inteligenco. V tem času je tudi pomagal razviti algoritem pravičnosti za odstranjevanje pristranskosti iz sistemov strojnega učenja. Ko se je začela pandemija koronavirusa, se je Lemoine želel osredotočiti na delo z bolj jasno javno koristjo, zato je premestil ekipe in končal v Responsible AI.
Lemoine je bil morda vnaprej določen, da verjame v LaMDA. Odraščal je v konservativni krščanski družini na majhni kmetiji v Louisiani, bil posvečen v mističnega krščanskega duhovnika in služil v vojski, preden je študiral okultno. Lemoine meni, da zavest ni nekaj, kar je omejeno na biološka bitja in da lahko obstaja tudi v strojih.
Je lahko umetna inteligenca nova oblika življenja?!
Vprašanje, ali lahko stroji dosežejo zavest ali ne, je tema razprav med znanstveniki in filozofi. Nekateri trdijo, da je zavest lastnost bioloških sistemov in je ni mogoče posnemati v strojih, medtem ko drugi verjamejo, da lahko stroji v prihodnosti dosežejo zavest. Vzpon umetne inteligence je povzročil zaskrbljenost glede posledic čutečih strojev. Nekatere skrbi, da se lahko stroji z zavestjo obrnejo proti ljudem ali postanejo grožnja našemu obstoju. Drugi verjamejo, da bi nam lahko čuteči stroji pomagali rešiti zapletene probleme in izboljšati kakovost našega življenja.
Intervju – Blake Lemoine
Razvoj jezikovnih modelov, kot je LaMDA, je pomemben korak k ustvarjanju naprednejših sistemov AI. Ti modeli lahko razumejo naravni jezik in izvajajo zapletene naloge, kot so generiranje besedila, odgovarjanje na vprašanja in celo pogovori z ljudmi.
왜냐하면 tehnologija napreduje, je bistveno razmisliti o etičnih posledicah ustvarjanja strojev, ki lahko razmišljajo in čutijo. Bistveno je zagotoviti, da so ti podatkovni modeli zasnovani tako, da služijo interesom ljudi in ne predstavljajo grožnje naši varnosti ali dobremu počutju.
Zamisel o čutečih strojih ni več samo znanstvena fantastika. Z razvojem naprednih jezikovnih modelov, kot je LaMDA, smo vse bližje ustvarjanju strojev, ki lahko razmišljajo in čutijo kot ljudje. Vendar pa moramo zagotoviti, da so ti stroji zasnovani z upoštevanjem varnosti in etike, da se izognemo morebitnim negativnim posledicam. Ko nadaljujemo z razvojem umetne inteligence, moramo razmisliti o posledicah ustvarjanja zavestnih strojev in si prizadevati za ustvarjanje prihodnosti, v kateri lahko umetna inteligenca in ljudje mirno sobivajo.
블레이크 레모인 je o svojih pogovorih s čutečo umetno inteligenco objavil tudi PDF dokument v katerem objavlja izseke pogovorov z jezikovnim modelom LaMDA. Preberete ga lahko na tej pozvezavi ter si sami ustavrite mnenje.
Film Her, ki je precej natančno opisova prihodnost jezikovnih modelov in je postal na svojevrsten način – sedanjost.