Un grupo de reconocidos investigadores y figuras destacadas en el campo de la inteligencia artificial (IA) expresaron su preocupación por el futuro de la humanidad en 22 palabras. La declaración es breve pero muy clara: "Reducir el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a nivel social, como las pandemias y la guerra nuclear". La declaración fue firmada por el CEO de Google DeepMind, Demis Hassabis, el CEO de OpenAI, Sam Altman, y Geoffrey Hinton y Yoshua Bengio, ambos ganadores del Premio Turing por su trabajo en IA.
centro de seguridad de IA, una organización sin fines de lucro con sede en San Francisco, emitió la declaración en apoyo conjunto de muchos jugadores importantes en en el campo de la IA. La declaración no ofrece soluciones concretas, pero presenta una visión unificada sobre la necesidad de un mayor enfoque en la seguridad de la IA.
La IA como amenaza global
No es la primera vez que estos expertos se animan a expresar su preocupación. Algunos de ellos fueron signatarios de una carta abierta este año, en la que pedían una "pausa" de seis meses en el desarrollo. AI. La carta ha generado críticas, algunos dicen que exagera los riesgos que plantea la IA, mientras que otros están de acuerdo con los riesgos pero no con la forma de abordarlos.
Los escépticos dudan de estas predicciones y señalan que los sistemas de inteligencia artificial no pueden manejar ni siquiera tareas relativamente simples, como conducir un automóvil. A pesar de años de esfuerzo y miles de millones de inversiones en esta área de investigación, los autos completamente autónomos aún están lejos de ser una realidad. Si la IA no puede dominar ni siquiera esta tarea, ¿qué posibilidades tiene de lograr todos los demás logros humanos en los años venideros? ¿La IA como una amenaza global?
Sin embargo, los defensores y escépticos de IA están de acuerdo en que los sistemas de IA ya presentan algunas amenazas, desde permitir la vigilancia masiva hasta impulsar algoritmos de "vigilancia predictiva" y crear desinformación e información falsa.
“Hay un concepto erróneo muy común, incluso en la comunidad de IA, de que hay solo unas pocas 'vistas negras'," es para Los New York Times dijo Dan Hendrycks, CEO Centros de seguridad de IA. "Pero en realidad, muchas personas expresarían sus preocupaciones sobre estas cosas en privado".
El debate sobre la seguridad de la IA es complejo y controvertido, y los detalles suelen ser difíciles de entender. La suposición básica es que los sistemas de IA podrían avanzar rápidamente y superar los mecanismos de seguridad. Como ejemplo, el rápido progreso de los grandes modelos de lenguaje se cita a menudo como indicador de la posible adquisición futura de inteligencia. Los expertos advierten que con cierto nivel de sofisticación, podría convertirse en imposible controlar su funcionamiento.
Una cuestión de seguridad La IA es particularmente importante para Europa, que ha anclado pautas éticas para una IA confiable en su política y legislación. En Europa, ya hemos visto muchos ejemplos de sistemas de IA que se utilizan de formas que entran en conflicto con nuestros valores, como el uso de algoritmos de reconocimiento facial automatizados en espacios públicos. La pregunta es si la regulación es lo suficientemente efectiva o si tendremos que pensar en medidas más estrictas, como suspender temporalmente el desarrollo de la IA.
Este es otro recordatorio de que debemos tener cuidado porque "El camino al infierno está pavimentado con buenas intenciones". Debemos recordar que la tecnología no es inherentemente buena o mala, lo que importa es cómo la usamos. Por ahora, la IA no parece amenazarnos hoy, pero es importante mantenerse alerta y prepararse para todas las eventualidades. Después de todo, es mejor prevenir que lamentar.