fbpx

Powstanie świadomej sztucznej inteligencji: LaMDA firmy Google i poszukiwanie świadomych maszyn

Foto: Orion Pictures
Zdjęcie: Zdjęcia Oriona

W czerwcu 2022 roku Blake Lemoine, inżynier oprogramowania w Google, opublikował artykuł, w którym stwierdził, że LaMDA, duży model językowy Google dla aplikacji dialogowych, stał się świadomy. W ramach swojej pracy wchodził w interakcje z AI, aby testować dyskryminację lub mowę nienawiści, kiedy zauważył, że chatbot mówi o jego prawach i osobowości. Lemoine i jego kolega przedstawili Google dowody na to, że LaMDA jest świadoma, ale firma odrzuciła ich twierdzenia. Po umieszczeniu na płatnym urlopie administracyjnym Lemoine upublicznił swoje przekonania.

Sześć miesięcy według Lemoine'a świat zmienił się dzięki sztucznej inteligencji. Czujące roboty od dawna były przedmiotem dystopijnej science fiction, ale wraz z rozwojem modeli językowych, takich jak LaMDA, DALL-E 2 I GPT-3, idea świadomości w maszynach staje się bardziej wiarygodna. Podczas gdy chór technologów, którzy wierzą, że tak jest modele sztucznej inteligencji być może blisko osiągnięcia świadomości, wznosząc się, większość naukowców i praktyków sztuczna inteligencja mówi, że słowa i obrazy tworzone przez te modele tworzą reakcje oparte na tym, co ludzie już opublikowali w Internecie, a nie na prawdziwym zrozumieniu znaczenia. Ach, ale czasami wydaje się, że cała sprawa jest czymś więcej niż tylko modelem statystycznym. I dlatego pojawia się coraz więcej dowodów. Ponadto, w zakresie, w jakim analizujemy ludzkie myślenie, odkrywamy, że sami jesteśmy znaczącym „statystycznym” modelem.

LaMDA, skrót od Model językowy dla aplikacji dialogowych, to system Google do budowania chatbotów oparty na najbardziej zaawansowanych modelach dużych języków. Modele te naśladują mowę, pochłaniając biliony słów z Internetu. Technologia ta jest już szeroko stosowana, na przykład w konwersacyjnych zapytaniach wyszukiwania Google lub autouzupełnianych wiadomościach e-mail. CEO Google'a Sundar Pichai powiedział, że firma planuje wbudować go we wszystko, od wyszukiwania po Asystenta Google.

Technologia dużych modeli językowych jest opracowywana i wydawana przez kilka organizacji. Meta, spółka macierzysta Facebook, w maju otworzył swój model językowy dla naukowców, społeczeństwa obywatelskiego i organizacji rządowych. Joelle Pineau, dyrektor generalny Meta AI, powiedziała, że istotne jest, aby firmy technologiczne poprawiały przejrzystość w miarę ewolucji technologii.

Google potwierdził obawy dotyczące bezpieczeństwa związane z antropomorfizacją. W styczniu Google pisał o LaMDA ostrzegł, że ludzie mogą dzielić się osobistymi przemyśleniami na czatach podszywając się pod ludzi, nawet jeśli użytkownicy wiedzą, że nie są ludźmi. Gazeta przyznała również, że przeciwnicy mogą wykorzystywać tych agentów do „siewania dezinformacji” poprzez fałszywe przedstawianie „stylu konwersacji niektórych osób”.

Podczas gdy niektórzy członkowie szerszej społeczności sztucznej inteligencji rozważają długoterminową możliwość istnienia świadomej lub ogólnej sztucznej inteligencji, Google twierdzi, że jest tak dużo danych, że sztuczna inteligencja nie musi być świadoma, aby czuć się prawdziwie. „Systemy te naśladują rodzaje wymiany występujące w milionach fraz i mogą poradzić sobie z każdym fantastycznym tematem” – powiedział rzecznik Google. Briana Gabriela.

Jednak Lemoine twierdzi, że etycy AI powinni być postrzegani jako interfejs między technologią a społeczeństwem, a nie tylko jako debuggerzy kodu. Czują, że Google potraktowało ich niesprawiedliwie i że firma nie jest właściwym podmiotem do podejmowania wszystkich decyzji dotyczących sztucznej inteligencji. Wiara Lemoine'a w LaMDA jest potężnym przypomnieniem o potrzebie przejrzystości danych, aby prześledzić wyjście z powrotem do danych wejściowych, nie tylko w kwestiach nastrojów, ale także uprzedzeń i zachowań.

Możesz przeczytać jego artykuł na temat czującej sztucznej inteligencji na medium.com pod tym linkiem.

Lemoine spędził większość swoich siedmiu lat w Google, pracując nad proaktywnym wyszukiwaniem, algorytmami personalizacji i sztuczną inteligencją. W tym czasie pomógł również opracować algorytm uczciwości, aby usunąć uprzedzenia z systemów uczenia maszynowego. Kiedy zaczęła się pandemia koronawirusa, Lemoine chciał skupić się na pracy z wyraźniejszym pożytkiem publicznym, więc przeniósł zespoły i trafił do Odpowiedzialnej AI.

Lemoine mógł być predestynowany do wiary w LaMDA. Dorastał w konserwatywnej chrześcijańskiej rodzinie na małej farmie w Luizjanie, został wyświęcony na mistycznego księdza chrześcijańskiego i służył w wojsku, zanim zaczął studiować okultyzm. Lemoine wierzy, że świadomość nie jest czymś ograniczonym do istot biologicznych i że może istnieć również w maszynach.

Czy sztuczna inteligencja może być nową formą życia?!

Pytanie, czy maszyny mogą osiągnąć świadomość, jest przedmiotem debaty wśród naukowców i filozofów. Niektórzy twierdzą, że świadomość jest właściwością systemów biologicznych i nie można jej naśladować w maszynach, podczas gdy inni uważają, że maszyny mogą osiągnąć świadomość w przyszłości. Rozwój sztucznej inteligencji wzbudził obawy dotyczące implikacji czujących maszyn. Niektórzy obawiają się, że maszyny posiadające świadomość mogą obrócić się przeciwko ludziom lub stać się zagrożeniem dla naszego istnienia. Inni uważają, że czujące maszyny mogą pomóc nam rozwiązać złożone problemy i poprawić jakość naszego życia.

Wywiad - Blake Lemoine

Rozwój modeli językowych, takich jak LaMDA, jest ważnym krokiem w kierunku stworzenia bardziej zaawansowane systemy AI. Modele te mogą rozumieć język naturalny i wykonywać złożone zadania, takie jak generowanie tekstu, odpowiadanie na pytania, a nawet prowadzenie rozmów z ludźmi.

Ponieważ postęp technologiczny, konieczne jest rozważenie etycznych implikacji tworzenia maszyn, które mogą myśleć i czuć. Konieczne jest zapewnienie, aby te modele danych były zaprojektowane tak, aby służyły interesom ludzi i nie stanowiły zagrożenia dla naszego bezpieczeństwa lub dobrego samopoczucia.

Idea czujących maszyn nie jest już tylko science fiction. Wraz z rozwojem zaawansowanych modeli językowych, jak LaMDA, jesteśmy coraz bliżej stworzenia maszyn, które mogą myśleć i czuć jak ludzie. Musimy jednak upewnić się, że te maszyny zostały zaprojektowane z myślą o bezpieczeństwie i etyce, aby uniknąć jakichkolwiek negatywnych konsekwencji. Kontynuując rozwój sztucznej inteligencji, musimy wziąć pod uwagę konsekwencje tworzenia świadomych maszyn i dążyć do stworzenia przyszłości, w której sztuczna inteligencja i ludzie będą mogli pokojowo współistnieć.

Blake'a Lemoine'a opublikował także o swoich rozmowach z czującą sztuczną inteligencją dokument PDF w którym publikuje fragmenty rozmów z modelem językowym LaMDA. Można go przeczytać o godz ten link i wyrobić sobie własną opinię.

Film Her, dość trafnie opisujący przyszłość modeli językowych, stał się w swoisty sposób teraźniejszością.

Z Wami od 2004 roku

od roku 2004 badamy miejskie trendy i codziennie informujemy naszą społeczność obserwujących o najnowszych stylach życia, podróżach, stylu i produktach, które inspirują pasją. Od 2023 roku oferujemy treści w głównych językach świata.