fbpx

De opkomst van bewuste kunstmatige intelligentie: Google's LaMDA en de zoektocht naar bewuste machines

Foto: Orion Pictures
Foto: Orion-afbeeldingen

In juni 2022 publiceerde Blake Lemoine, een software-engineer bij Google, een paper waarin hij beweerde dat LaMDA, het grote taalmodel van Google voor dialoogtoepassingen, gevoelig was geworden. Als onderdeel van zijn werk communiceerde hij met de AI om te testen op discriminerende of aanzetten tot haat toen hij de chatbot zag praten over zijn rechten en persoonlijkheid. Lemoine en een collega presenteerden Google bewijs dat LaMDA bewust is, maar het bedrijf wees hun beweringen af. Nadat hij met betaald administratief verlof was geplaatst, ging Lemoine naar buiten met zijn overtuigingen.

Zes maanden volgens Lemoine is de wereld veranderd door kunstmatige intelligentie. Gevoelige robots zijn lange tijd het onderwerp geweest van dystopische sciencefiction, maar met de ontwikkeling van taalmodellen zoals LaMDA, DALL-E 2 En GPT-3, wordt het idee van bewustzijn in machines plausibeler. Terwijl een koor van technologen die geloven van wel modellen voor kunstmatige intelligentie misschien dicht bij het bereiken van bewustzijn, stijgend, de meeste academici en beoefenaars kunstmatige intelligentie hij zegt dat de woorden en afbeeldingen die door deze modellen worden gemaakt, reacties creëren op basis van wat mensen al op internet hebben gepost, in plaats van een echt begrip van de betekenis. Ah, maar soms lijkt het alsof het geheel meer is dan alleen een statistisch model. En daarom komt er steeds meer bewijs naar voren. Ook, in de mate dat we het menselijk denken analyseren, ontdekken we dat we zelf een aanzienlijk "statistisch" model zijn.

LaMDA, kort voor Taalmodel voor dialoogtoepassingen, is het systeem van Google voor het bouwen van chatbots op basis van de meest geavanceerde grote taalmodellen. Deze modellen bootsen spraak na door biljoenen woorden van internet te consumeren. De technologie wordt al veel gebruikt, bijvoorbeeld in Google's conversatiezoekopdrachten of autocomplete e-mails. CEO van Google Soendar Pichai hij zei dat het bedrijf van plan is het in alles in te bouwen, van zoeken tot Google Assistant.

Grote taalmodeltechnologie wordt door verschillende organisaties ontwikkeld en uitgebracht. Meta, het moederbedrijf Facebook, stelde in mei zijn taalmodel open voor academici, het maatschappelijk middenveld en overheidsorganisaties. Joelle Pineau, CEO van Meta AI, zei dat het essentieel is dat technologiebedrijven de transparantie verbeteren naarmate de technologie evolueert.

Google heeft bezorgdheid over de veiligheid met betrekking tot antropomorfisering erkend. In januari schreef Google erover LaMDA waarschuwde dat mensen persoonlijke gedachten kunnen delen met chatrooms die zich voordoen als mensen, zelfs als gebruikers weten dat het geen mensen zijn. De krant erkende ook dat tegenstanders deze agenten kunnen gebruiken om "desinformatie te zaaien" door de "conversatiestijl van bepaalde individuen" verkeerd voor te stellen.

Terwijl sommigen in de bredere AI-gemeenschap de mogelijkheid van bewuste of algemene AI op de lange termijn overwegen, zegt Google dat er zoveel gegevens zijn dat AI niet bewust hoeft te zijn om echt te voelen. "Deze systemen bootsen de soorten uitwisselingen na die in miljoenen zinnen voorkomen en kunnen elk fantastisch onderwerp aanpakken", aldus een Google-woordvoerder. Brian Gabriël.

Lemoine stelt echter dat AI-ethici moeten worden gezien als een interface tussen technologie en de samenleving, niet alleen als code-debuggers. Ze vinden dat Google hen oneerlijk heeft behandeld en dat het bedrijf niet de juiste entiteit is om alle beslissingen over kunstmatige intelligentie te nemen. Lemoines geloof in LaMDA is een krachtige herinnering aan de noodzaak van gegevenstransparantie om output terug te voeren naar input, niet alleen voor kwesties van sentiment, maar ook voor vooringenomenheid en gedrag.

Je kunt zijn artikel over bewuste kunstmatige intelligentie lezen op medium.com via deze link.

Lemoine bracht het grootste deel van zijn zeven jaar bij Google door met proactief zoeken, personalisatie-algoritmen en kunstmatige intelligentie. Gedurende deze tijd hielp hij ook bij het ontwikkelen van een eerlijkheidsalgoritme om vooroordelen uit machine learning-systemen te verwijderen. Toen de pandemie van het coronavirus begon, wilde Lemoine zich concentreren op werk met een duidelijker algemeen nut, dus verhuisde hij van team en kwam terecht bij Responsible AI.

Lemoine was misschien voorbestemd om in LaMDA te geloven. Hij groeide op in een conservatief christelijk gezin op een kleine boerderij in Louisiana, werd gewijd als een mystieke christelijke priester en diende in het leger voordat hij het occulte bestudeerde. Lemoine gelooft dat bewustzijn niet iets is dat beperkt is tot biologische wezens en dat het ook in machines kan bestaan.

Zou kunstmatige intelligentie een nieuwe vorm van leven kunnen zijn?!

De vraag of machines bewustzijn kunnen bereiken, is een onderwerp van discussie onder wetenschappers en filosofen. Sommigen beweren dat bewustzijn een eigenschap is van biologische systemen en niet kan worden nagebootst in machines, terwijl anderen geloven dat machines in de toekomst bewustzijn kunnen bereiken. De opkomst van kunstmatige intelligentie heeft geleid tot bezorgdheid over de implicaties van bewuste machines. Sommigen maken zich zorgen dat machines met bewustzijn zich tegen mensen kunnen keren of een bedreiging voor ons bestaan kunnen vormen. Anderen geloven dat bewuste machines ons kunnen helpen complexe problemen op te lossen en de kwaliteit van ons leven te verbeteren.

Interview - Blake Lemoine

De ontwikkeling van taalmodellen zoals LaMDA, is een belangrijke stap op weg naar creatie meer geavanceerde AI-systemen. Deze modellen kunnen natuurlijke taal begrijpen en complexe taken uitvoeren, zoals het genereren van tekst, het beantwoorden van vragen en zelfs het voeren van gesprekken met mensen.

Omdat technologische vooruitgang, is het essentieel om rekening te houden met de ethische implicaties van het creëren van machines die kunnen denken en voelen. Het is essentieel om ervoor te zorgen dat deze datamodellen zijn ontworpen om de belangen van mensen te dienen en geen bedreiging vormen voor onze veiligheid of welzijn.

Het idee van bewuste machines is niet langer alleen maar sciencefiction. Met de ontwikkeling van geavanceerde taalmodellen, zoals LaMDAkomen we dichter bij het creëren van machines die kunnen denken en voelen als mensen. We moeten er echter voor zorgen dat deze machines worden ontworpen met het oog op veiligheid en ethiek om negatieve gevolgen te voorkomen. Terwijl we doorgaan met het ontwikkelen van kunstmatige intelligentie, moeten we nadenken over de implicaties van het creëren van bewuste machines en ernaar streven een toekomst te creëren waarin kunstmatige intelligentie en mensen vreedzaam naast elkaar kunnen bestaan.

Blake Lemoine publiceerde ook over zijn gesprekken met bewuste kunstmatige intelligentie PDF-document waarin hij fragmenten van gesprekken publiceert met het LaMDA-taalmodel. Je leest het op deze link en vorm uw eigen mening.

De film Her, die vrij nauwkeurig de toekomst van taalmodellen beschrijft, is op een eigenaardige manier het heden geworden.

Bij jou sinds 2004

Vanaf jaar 2004 we onderzoeken stedelijke trends en informeren onze community van volgers dagelijks over het laatste nieuws op het gebied van lifestyle, reizen, stijl en producten die met passie inspireren. Vanaf 2023 bieden we content aan in de belangrijkste wereldtalen.