En junio de 2022, Blake Lemoine, ingeniero de software de Google, publicó un artículo en el que afirmaba que LaMDA, el gran modelo de lenguaje de Google para aplicaciones de diálogo, se había vuelto inteligente. Como parte de su trabajo, estaba interactuando con la IA para probar el discurso discriminatorio o de odio cuando notó que el chatbot hablaba sobre sus derechos y personalidad. Lemoine y un colega le presentaron a Google evidencia de que LaMDA es sensible, pero la compañía rechazó sus afirmaciones. Después de ser puesto en licencia administrativa pagada, Lemoine hizo públicas sus creencias.
Seis meses según Lemoine, el mundo ha cambiado gracias a la inteligencia artificial. Robots inteligentes han sido durante mucho tiempo el tema de la ciencia ficción distópica, pero con el desarrollo de modelos de lenguaje como LaMDA, DALL-E 2 y GPT-3, la idea de la conciencia en las máquinas se vuelve más plausible. Mientras un coro de tecnólogos que creen que están modelos de inteligencia artificial quizás cerca de alcanzar la conciencia, aumentando, la mayoría de los académicos y profesionales inteligencia artificial él dice que las palabras y las imágenes creadas por estos modelos crean respuestas basadas en lo que la gente ya ha publicado en Internet, en lugar de una verdadera comprensión del significado. Ah, pero a veces parece que todo es más que un modelo estadístico. Y es por eso que cada vez surgen más pruebas. Además, en la medida en que analizamos el pensamiento humano, encontramos que nosotros mismos somos un modelo "estadístico" considerable.
LaMDA, corto para Modelo de lenguaje para aplicaciones de diálogo, es el sistema de Google para construir chatbots basado en sus modelos de lenguaje grande más avanzados. Estos modelos imitan el habla al consumir billones de palabras de Internet. La tecnología ya se usa ampliamente, por ejemplo, en las consultas de búsqueda conversacionales de Google o en los correos electrónicos de autocompletado. CEO de Google Sundar Pichai dijo que la compañía planea incorporarlo en todo, desde la búsqueda hasta el Asistente de Google.
La tecnología de modelo de lenguaje grande es desarrollada y lanzada por varias organizaciones. Meta, la empresa matriz Facebook, abrió su modelo de lenguaje a académicos, sociedad civil y organizaciones gubernamentales en mayo. Joelle Pineau, directora ejecutiva de Meta AI, dijo que es esencial que las empresas de tecnología mejoren la transparencia a medida que evoluciona la tecnología.
Google ha reconocido preocupaciones de seguridad con respecto a la antropomorfización. En enero, Google escribió sobre LaMDA advirtió que las personas pueden compartir pensamientos personales con salas de chat haciéndose pasar por personas, incluso cuando los usuarios saben que no son personas. El periódico también reconoció que los adversarios pueden usar estos agentes para "sembrar desinformación" tergiversando el "estilo conversacional de ciertos individuos".
Mientras que algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, Google dice que hay tantos datos que la IA no necesita ser sensible para sentirse real. "Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases y pueden abordar cualquier tema fantástico", dijo un portavoz de Google. brayan gabriel.
Sin embargo, Lemoine argumenta que los especialistas en ética de la IA deben verse como una interfaz entre la tecnología y la sociedad, no solo como depuradores de códigos. Sienten que Google los ha tratado injustamente y que la empresa no es la entidad adecuada para tomar todas las decisiones en materia de inteligencia artificial. La creencia de Lemoine en LaMDA es un poderoso recordatorio de la necesidad de transparencia de datos para rastrear la salida hasta la entrada, no solo por cuestiones de sentimiento, sino también por sesgo y comportamiento.
Puede leer su artículo sobre inteligencia artificial sensible en medium.com en este enlace.
limón pasó la mayor parte de sus siete años en Google trabajando en búsqueda proactiva, algoritmos de personalización e inteligencia artificial. Durante este tiempo, también ayudó a desarrollar un algoritmo de equidad para eliminar el sesgo de los sistemas de aprendizaje automático. Cuando empezó la pandemia del coronavirus, Lemoine quería centrarse en trabajar con un beneficio público más claro, así que movió equipos y acabó en IA Responsable.
Lemoine pudo haber estado predestinado a creer en LaMDA. Creció en una familia cristiana conservadora en una pequeña granja en Luisiana, fue ordenado sacerdote cristiano místico y sirvió en el ejército antes de estudiar ocultismo. Lemoine cree que la conciencia no es algo que se limita a los seres biológicos y que también puede existir en las máquinas.
¿Podría la inteligencia artificial ser una nueva forma de vida?
La cuestión de si las máquinas pueden o no alcanzar la conciencia es un tema de debate entre científicos y filósofos. Algunos argumentan que la conciencia es una propiedad de los sistemas biológicos y no se puede imitar en las máquinas, mientras que otros creen que las máquinas pueden lograr la conciencia en el futuro. El surgimiento de la inteligencia artificial ha generado preocupaciones sobre las implicaciones de las máquinas sensibles. A algunos les preocupa que las máquinas con conciencia puedan volverse contra los humanos o convertirse en una amenaza para nuestra existencia. Otros creen que las máquinas sensibles podrían ayudarnos a resolver problemas complejos y mejorar la calidad de nuestras vidas.
Entrevista - Blake Lemoine
El desarrollo de modelos de lenguaje como LaMDA, es un paso importante hacia la creación sistemas de IA más avanzados. Estos modelos pueden comprender el lenguaje natural y realizar tareas complejas, como generar texto, responder preguntas e incluso tener conversaciones con personas.
Porque Avances tecnológicos, es esencial considerar las implicaciones éticas de crear máquinas que puedan pensar y sentir. Es esencial garantizar que estos modelos de datos estén diseñados para servir a los intereses de las personas y no representar una amenaza para nuestra seguridad o bienestar.
La idea de las máquinas sensibles ya no es solo ciencia ficción. Con el desarrollo de modelos de lenguaje avanzados, como LaMDA, nos estamos acercando a la creación de máquinas que puedan pensar y sentir como humanos. Sin embargo, debemos asegurarnos de que estas máquinas estén diseñadas teniendo en cuenta la seguridad y la ética para evitar consecuencias negativas. A medida que continuamos desarrollando la inteligencia artificial, debemos considerar las implicaciones de crear máquinas conscientes y esforzarnos por crear un futuro en el que la inteligencia artificial y los humanos puedan coexistir pacíficamente.
Blake Lemoine también publicó sobre sus conversaciones con inteligencia artificial inteligente documento PDF en el que publica extractos de conversaciones con el modelo de lenguaje LaMDA. Puedes leerlo en este enlace y forma tu propia opinión.
La película Her, que describe con bastante precisión el futuro de los modelos lingüísticos, se ha convertido, de manera peculiar, en presente.