Drama explosivo en Meta, transparencia impactante en OpenAI y avances que nos sitúan a solo unos meses de la IA general. Entonces, esta semana en inteligencia artificial.
Si te perdiste las noticias de IA de esta semana, déjanos decirte solo una cosa: menta Ella se arrodilló (de nuevo), Claude se convierte en el jefe de la oficina, IA abierta Google finalmente está adoptando el código abierto y está desarrollando su visión de un súper asistente artificial que puede editar videos mejor que tú. Y esto no es ninguna broma. Esta es la semana en inteligencia artificial: número 15.
#15 esta semana en inteligencia artificial:
Meta y el desastre de Llama 4
Se suponía que Llama 4 sería la joya de la corona del desarrollo de la IA de Meta, pero el resultado final es una decepción. El modelo que se presentó al público no es el que participó en los benchmarks e impresionó. Esto fue observado por primera vez por el profesor Ethan Mollick, quien confirmó que los resultados del modelo publicado en LLM-arena no coincidían con los obtenidos por la versión pública. (fuente: x.com/ethanmollick)
Luego aparecieron publicaciones en Reddit de exempleados de Meta que ahora trabajan en OpenAI, desmarcándose abiertamente de Llama 4. Uno de ellos escribió en su perfil: "¿Llama 2 y Llama 3, Llama 4? No tengo nada que ver". (fuente: reddit.com)
Además, ha surgido información de que se desencadenó una reestructuración interna en la división de inteligencia artificial de Meta cuando fueron superados en los puntos de referencia por un modelo chino desconocido y de bajo presupuesto, el DeepSeek V3. Para una empresa que invierte miles de millones en el desarrollo de inteligencia artificial, esto no es poca cosa.
Claude Max y predicciones sobre Claude 4
Anthropic sorprendió con un nuevo servicio esta semana Claude Max – un plan de suscripción para usuarios exigentes, que ofrece de cinco a veinte veces la cuota de interacción, acceso prioritario a los últimos modelos y funciones. (fuente: anthropic.com)
Mientras tanto, Jared Kaplan, científico jefe de Anthropic, anunció que veremos a Claude 4 dentro de los próximos seis meses. Según él, el desarrollo de modelos de IA está ocurriendo más rápido que el desarrollo de hardware, principalmente debido al post-entrenamiento acelerado y a las mejoras en el aprendizaje de refuerzo. Una de las noticias sutiles pero más importantes de esta semana en inteligencia artificial.
OpenAI finalmente anuncia un modelo de código abierto
Tras años de críticas por falta de transparencia y distanciamiento de su misión original, Sam Altman anunció que OpenAI pronto lanzará un modelo de código abierto que superará a todas las alternativas existentes. (fuente: openai.com)
Además, ChatGPT ahora tiene memoria a largo plazo, lo que permite utilizar interacciones pasadas para personalizar experiencias y permite que la IA rastree activamente sus objetivos y los guíe a través de incompatibilidades en patrones de pensamiento.
Pero no todo es tan color de rosa: pruebas de seguridad abreviadas en OpenAI
Tiempos financieros reveló que OpenAI ha reducido significativamente el tiempo y el alcance de las pruebas de seguridad de sus modelos. En lugar de varias semanas, ahora sólo tienen unos pocos días, lo que aumenta la preocupación de que se puedan publicar modelos con vulnerabilidades no descubiertas. Un ex ingeniero de pruebas dijo al FT que los peligros de GPT-4 se descubrieron sólo dos meses después de su lanzamiento. (fuente: ft.com)
La razón es simple: la presión competitiva. Las empresas se apresuran a introducir nuevos modelos para no quedarse atrás. Y aunque éstas son las herramientas más poderosas de nuestro tiempo, la seguridad está siendo relegada a un segundo plano.
DeepCode 14B: un competidor de código abierto de OpenAI
DeepSeek y Aentica presentaron Código profundo 14B, un modelo de código abierto para generar código de software. Con sólo 14 mil millones de parámetros, consigue resultados comparables a los modelos comerciales GPT-3.5. Lo entrenaron con más de 24.000 tareas únicas y utilizaron el método GRPO+, que premia al modelo solo por una solución perfecta. (fuente: github.com/aentica)
BrowseComp: Nueva liga para agentes de IA
OpenAI ha presentado BrowseComp, un punto de referencia para los agentes de IA que pueden navegar eficientemente por la web y buscar información compleja. Está destinado a probar modelos que tienen que navegar por docenas de páginas para llegar a la información relevante. (fuente: github.com/openai/simple-evals)
Google lidera el juego
Google revela planes de fusión Geminis y Vio Modelos – comprensión de texto, imagen y audio con generación de video. Su objetivo es crear un súper asistente multimodal que entienda el mundo como nosotros. (fuente: googlecloudnext.com)
Además, Google presentó una nueva generación de chips de IA. TPU Ironwood, que es 3600 veces más potente que la primera generación de 2018. Esto les permite entrenar modelos más grandes y ejecutarlos más rápido sin depender de Nvidia.
Microsoft Copilot se está convirtiendo en un competidor serio
de Microsoft Copiloto Tiene una interfaz rediseñada, funciones de búsqueda de apartamentos, ayuda para escribir cartas e incluso capacidades de edición de imágenes. Actúa como un asistente personal en tiempo real, con acceso a la pantalla y al contexto. (fuente: microsoft.com)
Mustafa Suleyman, director de IA en Microsoft, cree que la IA general podría estar aquí dentro de cinco años, aunque reconoce que los problemas básicos, como las alucinaciones y el mal seguimiento de instrucciones, aún no se han resuelto.
Midjourney v7: imágenes impresionantes, pero aún sin texto
Midjourney ha lanzado la séptima generación de su modelo de imágenes, que impresiona por su hiperrealismo. Sin embargo, la generación de textos aún está muy retrasada, como ellos mismos admiten: los usuarios apenas lo utilizan, por lo que no es una prioridad. (fuente: midjourney.com)
Robot Neo trabajando en vivo
Plataforma robótica 1X Neo Ha demostrado que puede realizar tareas de la vida de forma independiente. Esto no es simplemente otro truco de relaciones públicas; El robot se movía, limpiaba y operaba sin guiones. Su diseño incluye músculos artificiales y movilidad que le permite coexistir de forma segura con los humanos. (fuente: 1x.tech)
Un científico de IA escribe su primer artículo profesional
Sakana AI Labs anunció que su modelo ha escrito el primer artículo científico que ha pasado la revisión por pares en un taller. La IA formuló una hipótesis, analizó los datos y sacó conclusiones, sin asistencia humana. (fuente: sakana.ai)
Conclusión
En solo una semana, vimos el colapso de la visión de Meta, la aceleración de los modelos de código abierto, tendencias peligrosas en las pruebas de seguridad y una nueva generación de agentes multimodales. El mundo de la inteligencia artificial no sólo está evolucionando rápidamente: está evolucionando en una dirección que parecía ciencia ficción hace apenas un año.
La próxima semana promete aún más. Si te pierdes algo, aquí estaremos. Todos los lunes.