Skip to content
La semana en que lo perdido no hizo ruido

La semana en que lo perdido no hizo ruido

Publicado el 2 de abril de 20264 min de lectura

Un programa de video que costaba un millón de dólares diarios cerró sin que nadie lo extrañara. Dos inteligencias artificiales se sentaron a juzgarse mutuamente. Un automóvil aprendió a conversar. Alguien fundó un instituto para protegernos de algo que todavía no comprende. Y unos lentes aprendieron a ver por quienes ya no pueden ver solos.


Sora duró seis meses. OpenAI lo lanzó en septiembre de dos mil veinticinco con la promesa de que cualquiera podría crear películas con palabras. Un millón de personas lo probaron. Para diciembre quedaban menos de quinientas mil. El programa consumía un millón de dólares diarios en capacidad de cómputo. El Wall Street Journal publicó la investigación el veintinueve de marzo. Sam Altman tomó la decisión de cerrarlo para liberar los chips y redirigirlos a un proyecto nuevo con nombre de tubérculo: Spud. Disney había firmado un contrato multianual en diciembre para doscientos personajes, incluyendo a Mickey Mouse y Darth Vader, con una inversión planeada de mil millones de dólares. Los ejecutivos de Disney se enteraron del cierre menos de una hora antes del comunicado público. Lo que más sorprende no es que Sora haya fracasado. Es que su desaparición no dejó hueco. La herramienta que iba a democratizar el cine se fue como se van las tiendas de revelado: un día simplemente ya no están.

Microsoft presentó dos sistemas la misma semana, y los dos hacen lo mismo: desconfiar. Council toma una pregunta, se la entrega simultáneamente a un modelo de Anthropic y a uno de OpenAI, y luego un tercer modelo, el juez, compara ambas respuestas. Identifica dónde coinciden, dónde divergen, qué ofrece cada uno que el otro omite. Nicole Herskowitz, vicepresidenta corporativa de Microsoft 365, lo describió como llevar la colaboración entre modelos al siguiente nivel. Lo que no dijo es más interesante: que la empresa más grande de software del mundo ya no confía en que una sola inteligencia artificial diga la verdad. La solución no es construir una máquina más honesta. Es poner a dos máquinas a vigilarse. El costo es dos veces y media el de una sola consulta. El precio de la desconfianza siempre se paga en efectivo.

El primero de abril, ChatGPT llegó al tablero del automóvil. OpenAI lanzó una aplicación dedicada para Apple CarPlay, disponible a partir de iOS 26.4. La pantalla no muestra texto ni imágenes. Solo un botón para hablar y otro para callar. Apple exige que estas aplicaciones operen exclusivamente por voz en el entorno de conducción. El conductor habla. La máquina responde. No hay registro visible de la conversación en la pantalla, solo en el historial del teléfono. CarPlay también abrió la puerta a Claude y a Gemini con la misma actualización. Tres voces artificiales compitiendo por la atención de alguien que debería estar mirando el camino. En algún momento de la historia reciente, el silencio dentro de un automóvil dejó de ser suficiente. Ahora el auto conversa. No porque el conductor lo necesite, sino porque la empresa necesita que el conductor no deje de hablar.

Perplexity fundó un instituto para la seguridad de la inteligencia artificial. Lo llamaron Secure Intelligence Institute. Lo dirige el doctor Ninghui Li, profesor de ciencias de la computación en Purdue, miembro de la ACM y del IEEE, con más de doscientas publicaciones en seguridad y privacidad. El primer proyecto se llama BrowseSafe: un modelo de código abierto que examina el HTML de una página web y determina si contiene instrucciones maliciosas dirigidas a un agente de inteligencia artificial. La pregunta que nadie formuló en voz alta es por qué esto no existía antes. La respuesta es la de siempre: primero se construye la casa, después se instala la cerradura. Primero se inventa el navegador autónomo, después se descubre que alguien puede envenenarlo con una línea de código escondida en el pie de página.

Meta anunció lentes inteligentes para personas que necesitan graduación. Dos modelos nuevos: Blayzer, rectangular, y Scriber, redondeado. Precio inicial: cuatrocientos noventa y nueve dólares. Preventa desde el treinta y uno de marzo, venta en ópticas a partir del catorce de abril. Los lentes incluyen cámara, asistente de voz, bocinas abiertas, navegación peatonal, dictado por escritura neural. Meta señaló que miles de millones de personas en el mundo usan lentes correctivos, y que hasta ahora habían sido excluidas del mercado de lentes inteligentes. La frase es precisa. También es reveladora. El mercado no se estaba perdiendo clientes. Se estaba perdiendo miles de millones de ojos. Ahora los tiene. Los lentes que antes corregían la visión ahora también la capturan. El óptico de la Condesa que tallaba cristales a mano no compite con esto. No porque su producto sea inferior, sino porque su producto no recopila datos.