Un groupe de chercheurs renommés et de personnalités de premier plan dans le domaine de l'intelligence artificielle (IA) ont exprimé leur inquiétude pour l'avenir de l'humanité en 22 mots. La déclaration est courte mais très claire : "Réduire le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques au niveau sociétal tels que les pandémies et la guerre nucléaire". La déclaration a été signée par Demis Hassabis, PDG de Google DeepMind, Sam Altman, PDG d'OpenAI, et Geoffrey Hinton et Yoshua Bengio, tous deux lauréats du prix Turing pour leur travail dans le domaine de l'IA.
Centre de Sécurité de l'IA, une organisation à but non lucratif basée à San Fransisco, a publié la déclaration en soutien conjoint de nombreux acteurs importants sur dans le domaine de l'IA. La déclaration n'offre aucune solution concrète, mais elle présente une vision unifiée de la nécessité de se concentrer davantage sur la sécurité de l'IA.
L'IA comme menace mondiale
Ce n'est pas la première fois que ces experts ont le courage d'exprimer leur inquiétude. Certains d'entre eux étaient signataires d'une lettre ouverte cette année, dans laquelle ils appelaient à une "pause" de six mois dans le développement IA. La lettre a suscité des critiques, certains affirmant qu'elle exagère les risques posés par l'IA, tandis que d'autres sont d'accord avec les risques mais pas avec la manière de les traiter.
Les sceptiques doutent de ces prédictions, soulignant que les systèmes d'IA ne peuvent pas gérer même des tâches relativement simples telles que conduire une voiture. Malgré des années d'efforts et des milliards d'investissements dans ce domaine de recherche, les voitures entièrement autonomes sont encore loin de la réalité. Si l'IA ne peut même pas maîtriser cette seule tâche, alors quelle chance a-t-elle d'accomplir toutes les autres réalisations humaines dans les années à venir ? L'IA comme menace mondiale ? !
Cependant, les défenseurs et Les sceptiques de l'IA conviennent que les systèmes d'IA présentent déjà certaines menaces - qu'il s'agisse de permettre une surveillance de masse, d'alimenter des algorithmes de "police prédictive" et de créer de la désinformation et de fausses informations.
"Il y a une idée fausse très répandue, même dans la communauté de l'IA, qu'il y a juste quelques "vues noires"," est pour Le New York Times a déclaré Dan Hendrycks, PDG Centres de sécurité IA. "Mais en réalité, beaucoup de gens soulèveraient des inquiétudes à propos de ces choses en privé."
Le débat sur la sécurité de l'IA est complexe et controversé, et les détails sont souvent difficiles à comprendre. L'hypothèse de base est que les systèmes d'IA pourraient rapidement progresser et dépasser les mécanismes de sécurité. À titre d'exemple, le progrès rapide des grands modèles de langage est souvent cité comme indiquant l'acquisition future possible de l'intelligence. Les experts avertissent qu'avec un certain niveau de sophistication, il pourrait devenir impossible de contrôler leur fonctionnement.
Une question de sécurité L'IA est particulièrement importante pour l'Europe, qui a ancré des lignes directrices éthiques pour une IA fiable dans sa politique et sa législation. En Europe, nous avons déjà vu de nombreux exemples de systèmes d'IA utilisés de manière contraire à nos valeurs, comme l'utilisation d'algorithmes de reconnaissance faciale automatisés dans les espaces publics. La question est de savoir si la régulation est suffisamment efficace, ou s'il faudra réfléchir à des mesures plus strictes, comme suspendre temporairement le développement de l'IA.
C'est un autre rappel auquel il faut être prudent car "le chemin de l'enfer est pavé de bonnes intentions". Nous devons nous rappeler que la technologie n'est pas intrinsèquement bonne ou mauvaise - c'est la façon dont nous l'utilisons qui compte. Pour l'instant, l'IA ne semble pas nous menacer aujourd'hui, mais il est important de rester vigilant et de se préparer à toutes les éventualités. Après tout, il vaut mieux prévenir que guérir.