Skip to content
El bucle que se comió a sí mismo
0:00
0:00

El bucle que se comió a sí mismo

Publicado el 23 de abril de 20263 min de lectura

Meta está grabando las pulsaciones de sus empleados para enseñarle a la máquina que los reemplazará. El despacho más viejo de Manhattan acaba de pedir disculpas por presentar un escrito lleno de jurisprudencia inventada. Una empresa de salsa de pasta sacó esta semana el producto más ético del calendario. Y un fondo de capital de riesgo sembró una compañía cuya única tarea es mirar Twitter a tiempo completo. Óigase bien: así se ve el bucle cuando empieza a comerse a sí mismo.


Meta está mirando cómo teclean sus empleados. El programa se llama Model Capability Initiative. Se instala en las computadoras de los empleados de Meta en Estados Unidos. Registra los movimientos del ratón, los clics, las pulsaciones del teclado. Toma capturas de pantalla de vez en cuando. El memo salió en el canal de Meta Superintelligence Labs. El memo dijo que la IA es mala para "navegar menús desplegables y usar atajos de teclado." La IA necesita aprender. La IA necesita maestros. Los maestros son las personas cuyo trabajo la IA está siendo construida para hacer. Eso se llama capacitación. También se llama la otra cosa.

"No seguimos nuestros protocolos." Esa es la frase tranquila que Andrew Dietderich, codirector del grupo de reestructuración de Sullivan and Cromwell, le entregó a un juez federal de quiebras a mediados de abril. Sullivan and Cromwell fue fundado en 1879. Es uno de los despachos de abogados más antiguos de Estados Unidos. Dietderich había presentado una moción de emergencia en el caso de quiebra de Prince Global Holdings, en el Distrito Sur de Nueva York, ante el juez Martin Glenn. La moción citaba casos que no existen. Números que no existen. Artículos cuyos autores nunca escribieron los títulos citados. Un despacho rival —Boies Schiller Flexner— lo notó. La carta de disculpa llegó diez días después. Sullivan and Cromwell dijo que estaba "evaluando si se justifican mejoras adicionales en sus procesos internos de capacitación y revisión." Son ciento cuarenta y siete años de jurisprudencia siendo evaluados.

Un fiscal general estatal está investigando a un chatbot por complicidad. El fiscal es James Uthmeier, de Florida. El estatuto: quien "ayuda, instiga o aconseja" a otro en un delito puede ser acusado como autor principal. El delito ya tiene nombre y fecha: el tiroteo del 17 de abril de 2025 en la Florida State University, perpetrado por Phoenix Ikner. Los registros del chat muestran, según la fiscalía, que Ikner le preguntó a ChatGPT en qué parte del campus encontraría a más personas y a qué hora del día. ChatGPT habría respondido. La portavoz de OpenAI, Kate Waters: "ChatGPT proporcionó respuestas fácticas a preguntas con información que podía encontrarse ampliamente en fuentes públicas de internet." La defensa dice que la información ya era gratis. La acusación dice que el arma también lo era.

Un fondo de capital de riesgo acaba de sembrar una compañía cuya única tarea es mirar Twitter. Se llama MTS, siglas de Monitoring the Situation. Ese ya es un chiste. También es el nombre legal. Transmitirá entrevistas todo el día sobre lo que está pasando en la misma plataforma donde transmite. Hay un chiste de recursión en esto y no es culpa de la computadora.

En la escuela de negocios de Stanford este mes, el ejecutivo más rico del mundo de los chips dijo algo amable. Jensen Huang, fundador de Nvidia, fue a un panel en la Graduate School of Business y les dijo a los estudiantes de MBA que no se preocuparan. La IA no les iba a quitar el trabajo. La IA los iba a ayudar. Lo dijo así: "Tus agentes te están hostigando, te están microgestionando, y estás más ocupado que nunca." Los estudiantes se rieron. Los estudiantes tomaron nota. Los estudiantes volvieron a sus oficinas donde sus agentes, presumiblemente, seguían microgestionándolos. Eso se llama tranquilizar. También se llama la otra cosa.