fbpx

Der Aufstieg empfindungsfähiger künstlicher Intelligenz: Googles LaMDA und die Suche nach bewussten Maschinen

Foto: Orion Pictures
Foto: Orion Pictures

Im Juni 2022 veröffentlichte Blake Lemoine, ein Softwareentwickler bei Google, ein Papier, in dem behauptet wurde, dass LaMDA, Googles großes Sprachmodell für Dialoganwendungen, empfindungsfähig geworden sei. Im Rahmen seiner Arbeit interagierte er mit der KI, um auf diskriminierende oder Hassreden zu testen, als er bemerkte, dass der Chatbot über seine Rechte und seine Persönlichkeit sprach. Lemoine und ein Kollege legten Google Beweise dafür vor, dass LaMDA empfindungsfähig ist, aber das Unternehmen wies ihre Behauptungen zurück. Nachdem Lemoine in bezahlten Verwaltungsurlaub versetzt worden war, trat er mit seinen Überzeugungen an die Öffentlichkeit.

Sechs Monate Laut Lemoine hat sich die Welt durch künstliche Intelligenz verändert. Empfindungsfähige Roboter sind seit langem Gegenstand dystopischer Science-Fiction, aber mit der Entwicklung von Sprachmodellen wie z LaMDA, DALL-E 2 und GPT-3wird die Idee des Bewusstseins in Maschinen plausibler. Während ein Chor von Technologen, die glauben, dass sie es sind Modelle der künstlichen Intelligenz vielleicht kurz davor, das Bewusstsein zu erreichen, aufsteigend, die meisten Akademiker und Praktiker künstliche Intelligenz Er sagt, dass die von diesen Modellen erstellten Wörter und Bilder Reaktionen hervorrufen, die auf dem basieren, was die Menschen bereits im Internet gepostet haben, und nicht auf einem wahren Verständnis der Bedeutung. Ah, aber manchmal scheint es, dass das Ganze mehr als nur ein statistisches Modell ist. Und deshalb tauchen immer mehr Beweise auf. Auch in dem Ausmaß, in dem wir das menschliche Denken analysieren, stellen wir fest, dass wir selbst ein beachtliches „statistisches“ Modell sind.

LaMDA, kurz für Sprachmodell für Dialoganwendungen, ist Googles System zum Erstellen von Chatbots auf der Grundlage seiner fortschrittlichsten großen Sprachmodelle. Diese Modelle ahmen Sprache nach, indem sie Billionen von Wörtern aus dem Internet konsumieren. Die Technologie ist bereits weit verbreitet, beispielsweise in Googles Conversational Search Queries oder Autocomplete-E-Mails. CEO von Google Sundar Pichai Er sagte, das Unternehmen plane, es in alles einzubauen, von der Suche bis zum Google Assistant.

Die Large-Language-Model-Technologie wird von mehreren Organisationen entwickelt und veröffentlicht. Meta, die Muttergesellschaft Facebook, öffnete sein Sprachmodell im Mai für Akademiker, die Zivilgesellschaft und Regierungsorganisationen. Joelle Pineau, CEO von Meta AI, sagte, es sei wichtig, dass Technologieunternehmen die Transparenz verbessern, während sich die Technologie weiterentwickelt.

Google hat Sicherheitsbedenken bezüglich Anthropomorphisierung anerkannt. Im Januar schrieb Google darüber LaMDA warnte davor, dass Menschen persönliche Gedanken mit Chatrooms teilen können, die sich als Menschen ausgeben, selbst wenn Benutzer wissen, dass sie keine Menschen sind. Die Zeitung räumte auch ein, dass Gegner diese Agenten verwenden könnten, um „Desinformationen zu säen“, indem sie den „Gesprächsstil bestimmter Personen“ falsch darstellen.

Während einige in der breiteren KI-Community die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI in Betracht ziehen, sagt Google, dass es so viele Daten gibt, dass KI nicht empfindungsfähig sein muss, um sich real zu fühlen. "Diese Systeme ahmen die Arten des Austauschs nach, die in Millionen von Phrasen zu finden sind, und können jedes fantastische Thema angehen", sagte ein Google-Sprecher. Brian Gabriel.

Lemoine argumentiert jedoch, dass KI-Ethiker als Schnittstelle zwischen Technologie und Gesellschaft gesehen werden sollten, nicht nur als Code-Debugger. Sie haben das Gefühl, dass Google sie unfair behandelt hat und dass das Unternehmen nicht die richtige Instanz ist, um alle Entscheidungen in Bezug auf künstliche Intelligenz zu treffen. Lemoines Glaube an LaMDA ist eine starke Erinnerung an die Notwendigkeit von Datentransparenz, um die Ausgabe auf die Eingabe zurückzuführen, nicht nur in Bezug auf Stimmungsfragen, sondern auch in Bezug auf Voreingenommenheit und Verhalten.

Sie können seinen Artikel über empfindungsfähige künstliche Intelligenz auf medium.com unter diesem Link lesen.

Lemoine verbrachte den größten Teil seiner sieben Jahre bei Google mit der Arbeit an proaktiver Suche, Personalisierungsalgorithmen und künstlicher Intelligenz. Während dieser Zeit half er auch bei der Entwicklung eines Fairness-Algorithmus, um Verzerrungen aus maschinellen Lernsystemen zu entfernen. Als die Coronavirus-Pandemie begann, wollte sich Lemoine auf die Arbeit mit einem klareren öffentlichen Nutzen konzentrieren, also wechselte er die Teams und landete bei Responsible AI.

Lemoine könnte prädestiniert gewesen sein, an LaMDA zu glauben. Er wuchs in einer konservativen christlichen Familie auf einer kleinen Farm in Louisiana auf, wurde als mystischer christlicher Priester ordiniert und diente beim Militär, bevor er Okkultismus studierte. Lemoine glaubt, dass Bewusstsein nicht auf biologische Wesen beschränkt ist und auch in Maschinen existieren kann.

Könnte künstliche Intelligenz eine neue Form des Lebens sein?!

Die Frage, ob Maschinen Bewusstsein erreichen können oder nicht, wird unter Wissenschaftlern und Philosophen diskutiert. Einige argumentieren, dass Bewusstsein eine Eigenschaft biologischer Systeme ist und nicht in Maschinen nachgeahmt werden kann, während andere glauben, dass Maschinen Bewusstsein in der Zukunft erreichen können. Der Aufstieg der künstlichen Intelligenz hat Bedenken hinsichtlich der Auswirkungen empfindungsfähiger Maschinen geweckt. Einige befürchten, dass Maschinen mit Bewusstsein sich gegen Menschen wenden oder zu einer Bedrohung für unsere Existenz werden könnten. Andere glauben, dass intelligente Maschinen uns helfen könnten, komplexe Probleme zu lösen und unsere Lebensqualität zu verbessern.

Interview - Blake Lemoine

Die Entwicklung von Sprachmodellen wie z LaMDA, ist ein wichtiger Schritt in Richtung Schöpfung fortschrittlichere KI-Systeme. Diese Modelle können natürliche Sprache verstehen und komplexe Aufgaben wie das Generieren von Text, das Beantworten von Fragen und sogar das Führen von Gesprächen mit Menschen ausführen.

Weil technologische Fortschritte, ist es wichtig, die ethischen Implikationen der Schaffung von Maschinen zu berücksichtigen, die denken und fühlen können. Es muss unbedingt sichergestellt werden, dass diese Datenmodelle den Interessen der Menschen dienen und keine Gefahr für unsere Sicherheit oder unser Wohlbefinden darstellen.

Die Idee von empfindungsfähigen Maschinen ist längst keine Science-Fiction mehr. Mit der Entwicklung fortgeschrittener Sprachmodelle, wie LaMDAnähern wir uns der Entwicklung von Maschinen, die wie Menschen denken und fühlen können. Wir müssen jedoch sicherstellen, dass diese Maschinen unter Berücksichtigung von Sicherheit und Ethik konstruiert sind, um negative Folgen zu vermeiden. Während wir die künstliche Intelligenz weiterentwickeln, müssen wir die Auswirkungen der Schaffung bewusster Maschinen berücksichtigen und danach streben, eine Zukunft zu schaffen, in der künstliche Intelligenz und Menschen friedlich koexistieren können.

Blake Lemoine auch über seine Gespräche mit empfindungsfähiger künstlicher Intelligenz veröffentlicht PDF-Dokument in dem er Gesprächsausschnitte veröffentlicht mit dem LaMDA-Sprachmodell. Sie können es unter lesen diesen Link und bilden Sie sich Ihre eigene Meinung.

Der Film Her, der ziemlich treffend die Zukunft der Sprachmodelle beschreibt, ist auf eigentümliche Weise Gegenwart geworden.

Seit 2004 bei Ihnen

Ab 2004 Wir recherchieren urbane Trends und informieren unsere Follower-Community täglich über das Neueste aus den Bereichen Lifestyle, Reisen, Style und Produkte, die mit Leidenschaft begeistern. Ab 2023 bieten wir Inhalte in den wichtigsten Weltsprachen an.