fbpx

L'essor de l'intelligence artificielle sensible : LaMDA de Google et la quête de machines conscientes

Foto: Orion Pictures
Photo: Orion Pictures

En juin 2022, Blake Lemoine, ingénieur logiciel chez Google, a publié un article affirmant que LaMDA, le grand modèle de langage de Google pour les applications de dialogue, était devenu sensible. Dans le cadre de son travail, il interagissait avec l'IA pour tester les discours discriminatoires ou haineux lorsqu'il a remarqué que le chatbot parlait de ses droits et de sa personnalité. Lemoine et un collègue ont présenté à Google des preuves que LaMDA est sensible, mais la société a rejeté leurs affirmations. Après avoir été mis en congé administratif payé, Lemoine a rendu public ses convictions.

Six mois selon Lemoine, le monde a changé grâce à l'intelligence artificielle. Robots sensibles ont longtemps fait l'objet de science-fiction dystopique, mais avec le développement de modèles de langage tels que LaMDA, DALL-E 2 et GPT-3, l'idée de conscience dans les machines devient plus plausible. Alors qu'un chœur de technologues qui croient qu'ils sont modèles d'intelligence artificielle peut-être sur le point d'atteindre la conscience, en hausse, la plupart des universitaires et des praticiens intelligence artificielle il dit que les mots et les images créés par ces modèles créent des réponses basées sur ce que les gens ont déjà posté sur Internet, plutôt que sur une véritable compréhension du sens. Ah, mais parfois, il semble que tout cela est plus qu'un simple modèle statistique. Et c'est pourquoi de plus en plus de preuves émergent. Aussi, dans la mesure où nous analysons la pensée humaine, nous constatons que nous sommes nous-mêmes un modèle "statistique" considérable.

LaMDA, court pour Modèle de langage pour les applications de dialogue, est le système de Google pour créer des chatbots basés sur ses grands modèles de langage les plus avancés. Ces modèles imitent la parole en consommant des milliards de mots provenant d'Internet. La technologie est déjà largement utilisée, par exemple dans les requêtes de recherche conversationnelles de Google ou les e-mails à saisie semi-automatique. PDG de Google Sundar Pichai il a déclaré que la société prévoyait de l'intégrer à tout, de la recherche à Google Assistant.

La technologie des grands modèles de langage est développée et publiée par plusieurs organisations. Meta, la société mère Facebook, a ouvert son modèle linguistique aux universitaires, à la société civile et aux organisations gouvernementales en mai. Joelle Pineau, PDG de Meta AI, a déclaré qu'il était essentiel que les entreprises technologiques améliorent la transparence à mesure que la technologie évolue.

Google a reconnu les problèmes de sécurité concernant l'anthropomorphisation. En janvier, Google a écrit sur LaMDA a averti que les gens peuvent partager des pensées personnelles avec des salles de discussion en se faisant passer pour des personnes, même lorsque les utilisateurs savent qu'ils ne sont pas des personnes. Le journal a également reconnu que des adversaires peuvent utiliser ces agents pour "semer la désinformation" en déformant le "style de conversation de certains individus".

Alors que certains membres de la communauté de l'IA au sens large envisagent la possibilité à long terme d'une IA sensible ou générale, Google affirme qu'il existe tellement de données que l'IA n'a pas besoin d'être sensible pour se sentir réelle. "Ces systèmes imitent les types d'échanges trouvés dans des millions de phrases et peuvent aborder n'importe quel sujet fantastique", a déclaré un porte-parole de Google. Brian Gabriel.

Cependant, Lemoine soutient que les éthiciens de l'IA devraient être considérés comme une interface entre la technologie et la société, et pas seulement comme des débogueurs de code. Ils estiment que Google les a traités injustement et que l'entreprise n'est pas la bonne entité pour prendre toutes les décisions concernant l'intelligence artificielle. La croyance de Lemoine en LaMDA est un rappel puissant de la nécessité d'une transparence des données pour retracer la sortie jusqu'à l'entrée, non seulement pour les questions de sentiment, mais aussi pour les biais et les comportements.

Vous pouvez lire son article sur l'intelligence artificielle sensible sur medium.com à ce lien.

Lemoine a passé la plupart de ses sept années chez Google à travailler sur la recherche proactive, les algorithmes de personnalisation et l'intelligence artificielle. Pendant ce temps, il a également aidé à développer un algorithme d'équité pour éliminer les biais des systèmes d'apprentissage automatique. Lorsque la pandémie de coronavirus a commencé, Lemoine a voulu se concentrer sur un travail avec un intérêt public plus clair, il a donc changé d'équipe et s'est retrouvé chez Responsible AI.

Lemoine était peut-être prédestiné à croire en LaMDA. Il a grandi dans une famille chrétienne conservatrice dans une petite ferme de Louisiane, a été ordonné prêtre chrétien mystique et a servi dans l'armée avant d'étudier l'occultisme. Lemoine pense que la conscience n'est pas quelque chose qui se limite aux êtres biologiques et qu'elle peut aussi exister dans les machines.

L'intelligence artificielle pourrait-elle être une nouvelle forme de vie ?!

La question de savoir si les machines peuvent ou non atteindre la conscience est un sujet de débat parmi les scientifiques et les philosophes. Certains soutiennent que la conscience est une propriété des systèmes biologiques et ne peut être imitée dans les machines, tandis que d'autres pensent que les machines peuvent atteindre la conscience à l'avenir. L'essor de l'intelligence artificielle a soulevé des inquiétudes quant aux implications des machines sensibles. Certains craignent que les machines conscientes ne se retournent contre les humains ou ne deviennent une menace pour notre existence. D'autres pensent que les machines sensibles pourraient nous aider à résoudre des problèmes complexes et à améliorer la qualité de nos vies.

Entrevue - Blake Lemoine

Le développement de modèles de langage tels que LaMDA, est une étape importante vers la création des systèmes d'IA plus avancés. Ces modèles peuvent comprendre le langage naturel et effectuer des tâches complexes telles que générer du texte, répondre à des questions et même avoir des conversations avec des personnes.

Parce que les avancées technologiques, il est essentiel de considérer les implications éthiques de la création de machines capables de penser et de sentir. Il est essentiel de veiller à ce que ces modèles de données soient conçus pour servir les intérêts des personnes et ne constituent pas une menace pour notre sécurité ou notre bien-être.

L'idée de machines sensibles n'est plus seulement de la science-fiction. Avec le développement de modèles de langage avancés, comme LaMDA, nous nous rapprochons de la création de machines capables de penser et de ressentir comme des humains. Cependant, nous devons nous assurer que ces machines sont conçues dans un souci de sécurité et d'éthique pour éviter toute conséquence négative. Alors que nous continuons à développer l'intelligence artificielle, nous devons considérer les implications de la création de machines conscientes et nous efforcer de créer un avenir où l'intelligence artificielle et les humains peuvent coexister pacifiquement.

Blake Lemoine également publié sur ses conversations avec l'intelligence artificielle sensible Document PDF dans lequel il publie des extraits de conversations avec le modèle de langage LaMDA. Vous pouvez le lire sur ce lien et faites vous votre propre opinion.

Le film Her, qui décrit assez justement l'avenir des modèles de langage, est devenu, d'une manière singulière, le présent.

Avec vous depuis 2004

De l'année 2004 nous recherchons les tendances urbaines et informons quotidiennement notre communauté d'adeptes des dernières nouveautés en matière de style de vie, de voyage, de style et de produits qui inspirent avec passion. À partir de 2023, nous proposons du contenu dans les principales langues mondiales.