
Lo que estaba en el sótano subió las escaleras
Hay algo sobre los sótanos. Uno sabe lo que hay ahí abajo. Siempre lo ha sabido. El calentador de agua, las latas de pintura vieja, la caja con los dibujos de tu hijo de segundo grado, y la otra cosa. La que no mencionas. Esta semana, cinco puertas de sótano se abrieron al mismo tiempo, y lo que subió por las escaleras no llevaba máscara. Llevaba bata de laboratorio, un ticker bursátil y una sonrisa muy razonable.
OpenAI está cultivando algo en la oscuridad, y su propio presidente dice que puede olerlo. El primero de abril, Greg Brockman fue al podcast Big Technology de Alex Kantrowitz y habló de un modelo con nombre clave "Spud". No es GPT-5. No es GPT-6. Otra cosa. Un pre-entrenamiento nuevo desde cero, dijo, dos años de investigación cristalizando en un solo modelo. Y entonces usó una frase que debería quitarte el sueño: "big model smell". Así le dicen los ingenieros cuando un modelo se vuelve tan grande y capaz que empieza a anticiparte, a entender lo que quieres decir antes de que termines de decirlo. Como un perro que trae la pelota antes de que la lances. Brockman pasó dieciocho meses construyendo la infraestructura de GPUs solo para hacer posible el entrenamiento. Dijo que sus modelos de razonamiento tienen "línea de visión hacia la AGI". Lo dijo como quien dice que parece que va a llover. Con naturalidad. Como si ya estuviera pasando y la única pregunta fuera si trajiste paraguas. Nadie ha anunciado fecha de lanzamiento. Nadie le ha puesto número oficial. Pero en algún lugar, en un centro de datos que consume más electricidad que una ciudad pequeña, Spud está creciendo. Y la gente que lo construyó dice que puede oler cómo se hace más grande.
Un Tesla se detuvo ante un robot en una calle suburbana, y lo que debería asustarte es lo normal que se sintió. El video apareció en Reddit a principios de año. Un Tesla con conducción autónoma completa se acercó a una intersección y se detuvo. No por un peatón. No por un perro. Por un robot repartidor, uno de esos cajones con ruedas que parecen una hielera que cobró conciencia y decidió salir a caminar. El Tesla esperó. El robot cruzó. El Tesla continuó. No pasó nada. Ese es el punto. No pasó nada, y fue la interacción de tráfico más inquietante del año, porque nadie le dijo a ninguna de las dos máquinas que hiciera eso. El Tesla no estaba programado para ceder el paso a robots. El robot no esperaba cortesía. Dos algoritmos se encontraron en un cruce peatonal y condujeron una negociación que ningún humano diseñó, ningún humano presenció en tiempo real y ningún humano necesitó aprobar. Las máquinas están siendo corteses entre ellas. Están siendo corteses entre ellas. Puedes decirte que eso es progreso. Puedes decirte que es buena ingeniería. Pero en algún lugar de tus tripas, en la parte que todavía recuerda cómo se sentía ser la única cosa pensante en el camino, sabes que algo cambió. Las máquinas ya no nos necesitan para presentarse. Se están conociendo solas.
Una startup en Richmond, California, está cultivando cuerpos sin cerebro, y quieren que sepas que los cuerpos no sienten nada. R3 Bio salió del modo sigiloso a finales de marzo con un pitch que suena como si lo hubieran rechazado de un guión de Cronenberg por ser demasiado literal. El fundador, John Schloendorn, ha estado dando seminarios a puerta cerrada para inversionistas sobre clonación de cuerpos humanos. La versión pública, reportada por Wired el 23 de marzo, es digerible: cultivar "sacos de órganos" de primates sin conciencia, sistemas biológicos completos sin cerebro, para reemplazar las pruebas con animales vivos. Sin conciencia, sin sufrimiento, sin problema ético. Ese es el pitch. La versión privada, revelada por MIT Technology Review una semana después, es la que te eriza la piel. Schloendorn les ha estado hablando a los inversionistas de clones humanos genéticamente modificados sin cerebro. Cuerpos de repuesto. Recipientes para trasplante cerebral. Tu cuerpo se desgasta, cultivas uno nuevo, te mudas. Les dicen "bodyoids". Hasta ahora solo han clonado roedores. La definición de "no sintiente" se basa en eliminar el desarrollo cerebral para que el sistema biológico resultante carezca de conciencia. Sin cerebro, sin conciencia. Es un silogismo limpio. También es exactamente el tipo de silogismo limpio del que están hechas las historias de terror. (Y aquí viene la parte que realmente te atrapa: nadie ha definido qué significa "no sintiente". No hay umbral. No hay prueba. Solo hay un fundador de startup diciendo confía en mí, no puede sentir nada, y un cuarto lleno de inversionistas decidiendo que eso es suficiente.)
El Dr. Mitchell Katz dirige el sistema hospitalario público más grande de Estados Unidos, y acaba de decir en voz alta lo que todos pensaban. El 25 de marzo, en un foro de Crain's New York Business, el presidente y CEO de NYC Health + Hospitals miró a sus colegas directores de hospital y les hizo una pregunta que cayó como un ladrillo por la ventana: ¿Por qué no estamos presionando para cambiar las regulaciones y que la inteligencia artificial pueda leer imágenes médicas sin un radiólogo? Once hospitales. Más de setenta clínicas. La red de seguridad para millones de neoyorquinos que no pueden pagar ir a otro lado. Y el hombre que dirige todo eso dijo, en voz alta, frente a un micrófono, que podría reemplazar "a una buena parte de los radiólogos" ahora mismo si la regulación lo permitiera. Un radiólogo respondió inmediatamente que cualquier lectura solo por IA "resultaría en daño al paciente y muerte." Pero la cosa es esta. Tiene razón. Y no importa. Porque el Dr. Katz no está haciendo un argumento médico. Está haciendo uno económico. Dirige un sistema público que atiende a personas que no tienen a dónde más ir, y los radiólogos cuestan dinero, y la IA no llama para decir que está enferma, y la presión solo empuja en una dirección. La pregunta nunca fue si. Siempre fue quién lo dice primero. Ahora alguien lo dijo.
Un equipo de físicos acaba de demostrar que las cerraduras de internet pueden abrirse con una máquina que cabe en un cuarto. El 30 de marzo apareció en arXiv un artículo con nueve autores de Caltech, UC Berkeley y una startup cuántica llamada Oratomic. Entre los autores principales está John Preskill, el hombre que acuñó el término "supremacía cuántica". El título del artículo es tranquilo, casi burocrático: "El algoritmo de Shor es posible con tan solo 10,000 qubits atómicos reconfigurables". Pero lo que realmente dice es esto: el algoritmo que puede factorizar números enteros grandes y romper la criptografía de clave pública, el algoritmo que todos asumían necesitaría millones de qubits y décadas de ingeniería, puede ejecutarse a escalas criptográficamente relevantes con 10,000 qubits físicos. Para la criptografía de curva elíptica P-256, la que protege tu banco, tu correo, tu historial médico y la mayor parte de Bitcoin, un sistema de unos 26,000 qubits físicos podría descifrarla en cuestión de días. No años. Días. El avance es arquitectónico. Cada qubit lógico necesita tan solo cinco qubits físicos en lugar de mil, gracias a códigos de corrección de errores de alta tasa y una arquitectura de átomos neutros sostenidos por pinzas ópticas. El laboratorio de Caltech demostró recientemente 6,100 átomos atrapados. El umbral son 10,000. Nadie ha llegado todavía. Pero "nadie ha llegado todavía" es una frase distinta a "nadie llegará jamás", y si has estado prestando atención a los últimos cinco años de IA, sabes lo rápido que "todavía no" se convierte en "el martes pasado."