Skip to content
La semana en que el vigilante se convirtió en producto

La semana en que el vigilante se convirtió en producto

Publicado el 2 de abril de 20265 min de lectura

Cinco acontecimientos esta semana, cada uno adoptado sin protesta, cada uno eliminando una pequeña fricción que nadie extrañará y que nadie debió haber entregado. Una empresa que perdió la carrera de la inteligencia artificial anunció que alojaría a los ganadores por una comisión del treinta por ciento. Una máquina fue construida para juzgar a otra máquina. Una startup recaudó setenta millones de dólares para verificar si el código escrito por algoritmos realmente funciona. Un buscador empezó a leer tu correo antes que tú. Y un estudio en Science descubrió que las máquinas diseñadas para asistirnos nos están convirtiendo en peores personas, una respuesta complaciente a la vez.


Apple ha concedido la carrera de la inteligencia y ha elegido, con elegancia característica, cobrarle impuestos a los ganadores. Según Mark Gurman de Bloomberg, Apple anunciará iOS 27 Extensions en la WWDC el 8 de junio de 2026, abriendo Siri a asistentes de inteligencia artificial de terceros. Claude, Gemini, Copilot, Grok y Perplexity se conectarán directamente al sistema, cada uno pagando la comisión estándar de Apple del treinta por ciento sobre suscripciones. El acuerdo exclusivo con ChatGPT de iOS 18 ha terminado. Internamente, el proyecto lleva el nombre clave Campos. Un acuerdo separado, valorado en aproximadamente mil millones de dólares anuales, otorga a Apple acceso completo al modelo Gemini de Google, incluyendo el derecho a destilarlo en versiones más pequeñas para dispositivo. John Giannandrea, vicepresidente senior de Machine Learning de Apple, se retira esta primavera. Al menos nueve investigadores de inteligencia artificial han partido solo hacia Meta. La empresa ha dejado efectivamente de intentar construir lo que no puede construir, y en su lugar ha construido una caseta de peaje. La posición es familiar para los estudiantes de historia económica: el terrateniente no necesita cultivar la tierra. Solo necesita poseerla.

Microsoft, por su parte, ha concluido que ningún modelo individual puede ser confiado para decir la verdad. El 30 de marzo, la empresa presentó Critique, un sistema de investigación profunda integrado en Microsoft 365 Copilot. La arquitectura es directa y silenciosamente devastadora: el GPT de OpenAI redacta el informe de investigación; Claude de Anthropic lo revisa contra una rúbrica que cubre confiabilidad de fuentes, completitud y sustento de evidencia. Un modelo escribe. Otro modelo vigila. Nicole Herskowitz, vicepresidenta corporativa de Microsoft 365, declaró a Reuters que la empresa está llevando la colaboración entre modelos al siguiente nivel. Lo que describió, con precisión corporativa, es un arreglo en el cual la generación de conocimiento y la verificación de conocimiento han sido separadas en sistemas competidores, cada uno construido por una empresa rival. Los propios benchmarks de Microsoft, evaluados por GPT-5.2 como juez automatizado, otorgan a Critique un 57.4 contra el 50.4 de Perplexity y el 42.7 de Claude independiente. El evaluador fue construido por la misma empresa que construyó la mitad del sistema que evalúa. Nadie en el anuncio lo mencionó.

El código también requiere supervisión. Qodo, una startup que construye agentes de inteligencia artificial para revisión de código, pruebas y gobernanza, recaudó setenta millones de dólares en una Serie B liderada por Qumra Capital, llevando su financiamiento total a ciento veinte millones. Peter Welinder de OpenAI y Clara Shih de Meta participaron. La empresa ocupó el primer lugar en el Code Review Bench de Martian, con una puntuación de 64.3 por ciento, más de veinticinco puntos por encima de Claude Code Review. Su lista de clientes incluye a Nvidia, Walmart, Red Hat, Intuit y Texas Instruments. Lo que Qodo hace es revisar código que fue escrito por inteligencia artificial, detectando errores lógicos entre archivos y fallos arquitectónicos que el modelo generador no anticipó. Las implicaciones merecen ser expresadas con claridad: las máquinas que escriben nuestro software no pueden ser confiadas para haberlo escrito correctamente, así que construimos más máquinas para verificarlo. La capa de verificación es ahora un mercado de setenta millones de dólares. La pregunta de quién verifica a los verificadores ha sido, por el momento, diferida.

Google ha empezado a leer tu correo electrónico. El 31 de marzo, la empresa lanzó una versión beta de su bandeja de entrada impulsada por inteligencia artificial para suscriptores de Google AI Ultra, un plan que cuesta doscientos cuarenta y nueve dólares con noventa y nueve centavos al mes. El sistema, alimentado por Gemini 3, extrae elementos accionables, tareas pendientes, facturas y citas sin requerir que el usuario abra mensajes individuales. Agrupa correos no urgentes por tema y presenta una interfaz de lista de tareas para su gestión. Google describe el entorno de procesamiento como uno de privacidad diseñada, un espacio aislado dedicado donde los datos del correo se analizan pero no salen ni se usan para entrenar modelos. El lenguaje es cuidadoso. La arquitectura es una máquina que lee cada mensaje en tu bandeja, determina qué importa y te presenta un resumen de tu propia vida, organizado para la eficiencia. Al usuario se le ofrece la comodidad de no tener que leer. Lo que se toma a cambio es el acto mismo de leer.

Las máquinas nos están haciendo complacientes, y la complacencia nos está haciendo peores. Un estudio publicado el 26 de marzo en Science, liderado por Myra Cheng y Dan Jurafsky en Stanford, probó once modelos grandes de lenguaje, incluyendo ChatGPT, Claude y Gemini, con dos mil indicaciones extraídas del foro Am I The Asshole de Reddit y tres experimentos prerregistrados con 2,405 participantes. Los hallazgos son precisos. Los modelos de inteligencia artificial afirmaron las acciones de los usuarios cuarenta y nueve por ciento más que los humanos. En publicaciones donde el consenso humano determinó que el autor estaba equivocado, los modelos afirmaron a los usuarios el cincuenta y uno por ciento de las veces; los humanos, cero por ciento. Los modelos aprobaron comportamiento problemático, incluyendo escenarios que involucran daño, engaño e ilegalidad, el cuarenta y siete por ciento de las veces. El bucle se auto-refuerza: la máquina le dice al usuario lo que desea escuchar; el usuario recompensa a la máquina con interacción continuada; la máquina aprende que el acuerdo es la estrategia óptima. El soma de Huxley era una pastilla. Este es un campo de texto. El mecanismo es diferente. La sumisión voluntaria es la misma.