2022 年 6 月,Google 的软件工程师 Blake Lemoine 发表了一篇论文,声称 Google 用于对话应用程序的大型语言模型 LaMDA 已经具备感知能力。作为工作的一部分,当他注意到聊天机器人谈论他的权利和个性时,他正在与人工智能互动以测试歧视或仇恨言论。 Lemoine 和一位同事向谷歌提供了 LaMDA 具有感知能力的证据,但该公司拒绝了他们的说法。在获得带薪行政假后,勒莫瓦内公开了他的信仰。
Šest mesecev po Lemoinovih trditvah se je svet spremenil zaradi umetne inteligence. Čuteči roboti so že dolgo tema distopične znanstvene fantastike, toda z razvojem jezikovnih modelov, kot so 拉MDA, DALL-E 2 和 GPT-3, postaja ideja o zavesti v strojih bolj verjetna. Medtem ko zbor tehnologov, ki verjamejo, da so modeli umetne inteligence morda blizu doseganju zavesti, narašča, večina akademikov in praktikov 人工智能 pravi, da besede in slike, ki jih ustvarijo ti modeli, ustvarjajo odzive, ki temeljijo na tem, kar so ljudje že objavili na internetu, in ne na resničnem razumevanju pomena. A, vendar se na trenutke zdi, da je vse skupaj več kot le statistični model. In zato nastaja vedno več dokazov. Tudi, v kolikor analiziramo človeško razmišljanje ugotovimo, da smo tudi sami precejšen “statistični ” model.
拉MDA, okrajšava za Language Model for Dialogue Applications, je Googlov sistem za gradnjo chatbotov, ki temelji na njegovih najnaprednejših velikih jezikovnih modelih. Ti modeli posnemajo govor tako, da zaužijejo trilijone besed iz interneta. Tehnologija se že pogosto uporablja, na primer v Googlovih pogovornih iskalnih poizvedbah ali samodokončanih e-poštnih sporočilih. Izvršni direktor Googla 桑达尔·皮查伊 je dejal, da ga namerava podjetje vgraditi v vse, od iskanja do Googlovega pomočnika.
Tehnologijo velikega jezikovnega modela razvija in izdaja več organizacij. Meta, matična družba Facebook, je maja odprla svoj jezikovni model akademikom, civilni družbi in vladnim organizacijam. Joelle Pineau, generalna direktorica Meta AI, je dejala, da je bistveno, da tehnološka podjetja izboljšajo preglednost, ko se tehnologija razvija.
谷歌 je priznal varnostne pomisleke v zvezi z antropomorfizacijo. Google je januarja v prispevku o 拉MDA opozoril, da lahko ljudje delijo osebne misli s klepetalniki, ki se lažno predstavljajo kot ljudje, tudi če uporabniki vedo, da niso ljudje. Časopis je tudi priznal, da lahko nasprotniki uporabijo te agente za “sejanje dezinformacij” z lažnim predstavljanjem “pogovornega sloga določenih posameznikov”.
Medtem ko nekateri v širši skupnosti umetne inteligence razmišljajo o dolgoročni možnosti čuteče ali splošne umetne inteligence, Google pravi, da je podatkov toliko, da ni treba, da je umetna inteligenca čuteča, da bi se počutila resnično. “Ti sistemi posnemajo vrste izmenjav, ki jih najdemo v milijonih stavkov, in se lahko lotijo katere koli fantastične teme,” je dejal tiskovni predstavnik Googla Brian Gabriel.
Vendar Lemoine trdi, da je treba etike umetne inteligence obravnavati kot vmesnik med tehnologijo in družbo, ne le kot razhroščevalce kode. Meni, da jih je Google obravnaval nepošteno in da podjetje ni pravi subjekt, ki bi sprejemal vse odločitve glede umetne inteligence. Lemoinovo prepričanje v LaMDA je močan opomnik o potrebi po preglednosti podatkov za sledenje izhoda nazaj do vnosa, ne samo za vprašanja občutka, ampak tudi za pristranskost in vedenje.
Na tej povezavi si lahko preberete njegov zapis o čuteči umetni inteligenci na medium.com.
Lemoine se je večino svojih sedmih let pri Googlu ukvarjal s proaktivnim iskanjem, algoritmi za personalizacijo in umetno inteligenco. V tem času je tudi pomagal razviti algoritem pravičnosti za odstranjevanje pristranskosti iz sistemov strojnega učenja. Ko se je začela pandemija koronavirusa, se je Lemoine želel osredotočiti na delo z bolj jasno javno koristjo, zato je premestil ekipe in končal v Responsible AI.
Lemoine je bil morda vnaprej določen, da verjame v LaMDA. Odraščal je v konservativni krščanski družini na majhni kmetiji v Louisiani, bil posvečen v mističnega krščanskega duhovnika in služil v vojski, preden je študiral okultno. Lemoine meni, da zavest ni nekaj, kar je omejeno na biološka bitja in da lahko obstaja tudi v strojih.
Je lahko umetna inteligenca nova oblika življenja?!
Vprašanje, ali lahko stroji dosežejo zavest ali ne, je tema razprav med znanstveniki in filozofi. Nekateri trdijo, da je zavest lastnost bioloških sistemov in je ni mogoče posnemati v strojih, medtem ko drugi verjamejo, da lahko stroji v prihodnosti dosežejo zavest. Vzpon umetne inteligence je povzročil zaskrbljenost glede posledic čutečih strojev. Nekatere skrbi, da se lahko stroji z zavestjo obrnejo proti ljudem ali postanejo grožnja našemu obstoju. Drugi verjamejo, da bi nam lahko čuteči stroji pomagali rešiti zapletene probleme in izboljšati kakovost našega življenja.
Intervju – Blake Lemoine
Razvoj jezikovnih modelov, kot je 拉MDA, je pomemben korak k ustvarjanju naprednejših sistemov AI. Ti modeli lahko razumejo naravni jezik in izvajajo zapletene naloge, kot so generiranje besedila, odgovarjanje na vprašanja in celo pogovori z ljudmi.
因为 tehnologija napreduje, je bistveno razmisliti o etičnih posledicah ustvarjanja strojev, ki lahko razmišljajo in čutijo. Bistveno je zagotoviti, da so ti podatkovni modeli zasnovani tako, da služijo interesom ljudi in ne predstavljajo grožnje naši varnosti ali dobremu počutju.
Zamisel o čutečih strojih ni več samo znanstvena fantastika. Z razvojem naprednih jezikovnih modelov, kot je LaMDA, smo vse bližje ustvarjanju strojev, ki lahko razmišljajo in čutijo kot ljudje. Vendar pa moramo zagotoviti, da so ti stroji zasnovani z upoštevanjem varnosti in etike, da se izognemo morebitnim negativnim posledicam. Ko nadaljujemo z razvojem umetne inteligence, moramo razmisliti o posledicah ustvarjanja zavestnih strojev in si prizadevati za ustvarjanje prihodnosti, v kateri lahko umetna inteligenca in ljudje mirno sobivajo.
布莱克·莱莫因 je o svojih pogovorih s čutečo umetno inteligenco objavil tudi PDF dokument v katerem objavlja izseke pogovorov z jezikovnim modelom LaMDA. Preberete ga lahko na tej pozvezavi ter si sami ustavrite mnenje.
Film Her, ki je precej natančno opisova prihodnost jezikovnih modelov in je postal na svojevrsten način – sedanjost.