
La semana que el umbral se movió solo
Un modelo de lenguaje mejoró sin maestro. Un libro de texto de matemáticas se convirtió en prueba verificable por máquina. La tripulación del Artemis II cruzó el punto medio hacia la Luna con teléfonos modificados como cámaras. Un hombre publicó los planos para desmontar un planeta. Y un modelo temporal entrenado con casi un billón de tokens genéticos empezó a simular las trayectorias del envejecimiento humano. Estos no son eventos separados. Son coordenadas sobre la misma curva.
Un modelo de lenguaje aprendió a programar mejor estudiando su propia producción. El 1 de abril, investigadores de Apple publicaron un artículo cuyo título es preciso: "Embarrassingly Simple Self-Distillation Improves Code Generation." El método es exactamente lo que dice. Se toma Qwen3-30B-Instruct, que obtiene un 42.4% en LiveCodeBench v6. Se le pide que genere sus propias soluciones. Se ajusta el modelo con esas muestras usando aprendizaje supervisado estándar. Sin verificador. Sin modelo maestro. Sin señal de recompensa. Sin aprendizaje por refuerzo. Sin entorno de ejecución. El resultado: 55.3%. Una ganancia de 12.9 puntos porcentuales. Los problemas fáciles mejoraron 6.5 puntos. Los medianos, 14.2. Los difíciles, 15.3. Ruixiang Zhang y sus colegas rastrearon el mecanismo hasta lo que llaman el conflicto precisión-exploración: la autodestilación suprime tokens distractores donde la precisión importa y preserva la diversidad donde importa la exploración. El modelo no se vuelve más cauteloso. Se vuelve más exacto donde la exactitud cuenta.
Las matemáticas se están convirtiendo en un trabajo de cómputo. Investigadores de Meta FAIR — Gloeckle, Rammal, Arnal, Munos, Cabannes, Synnaeve y Hayat — construyeron RepoProver, un sistema multiagente que tradujo el libro de texto de posgrado "Algebraic Combinatorics" de Darij Grinberg al lenguaje Lean, donde compilar equivale a demostrar. Agentes esbozadores traducen definiciones. Agentes demostradores completan pruebas. Agentes de mantenimiento manejan la infraestructura. Agentes revisores controlan la calidad mediante pull requests sobre un repositorio git compartido. Lo que antes era el trabajo de toda una carrera matemática — formalizar un solo libro de texto — se ha convertido en un pipeline paralelizable.
La tripulación del Artemis II está ahora más cerca de la Luna que de la Tierra. El 4 de abril, la nave Orion se encontraba a más de 160,000 millas de casa, viajando a 2,540 millas por hora hacia un sobrevuelo lunar programado para el lunes. El comandante Reid Wiseman capturó una fotografía que la NASA tituló "Hello, World" — la Tierra completa con su lado nocturno iluminado por la Luna, auroras gemelas brillando en los polos, luz zodiacal cruzando el encuadre — con una Nikon D5 a ISO 51,200. Pero cada uno de los cuatro tripulantes lleva también un iPhone 17 Pro Max modificado, con internet y Bluetooth desactivados, fijado con Velcro a las paredes de la cápsula. Es la primera vez que la NASA cualifica un iPhone para uso más allá de la órbita terrestre baja. El piloto Victor Glover es la primera persona de color en viajar tan lejos del planeta. Jeremy Hansen es el primer canadiense. Christina Koch es la primera mujer en una misión lunar. El lunes pasarán a 4,066 millas de la superficie y superarán el récord de distancia del Apolo 13 por 4,102 millas. Las cámaras que llevan en los bolsillos registrarán lo que solo doce seres humanos han visto desde tan cerca.
Roko Mijic es conocido por un experimento mental sobre inteligencia artificial superinteligente que fue lo suficientemente perturbador como para ser censurado del foro donde se publicó. Esta semana publicó algo más concreto. MercurialDyson, un repositorio de GitHub creado el 3 de abril, contiene un informe descrito como "análisis físico e ingenieril programado por vibra usando varias IAs basadas en LLM, con el autor como guía y verificador de cordura." El plan: desmontar el planeta Mercurio para construir un Enjambre de Dyson. Mercurio es el candidato porque es rico en metales, cercano al Sol y tiene baja gravedad. La estrategia: aterrizar una fábrica semilla de unos cientos de toneladas, desplegar máquinas autorreplicantes de von Neumann con un tiempo de duplicación de uno a dos años. Dos unidades después del primer año. Cuatro después del segundo. Mil millones después de treinta. Un billón después de cuarenta. Desmontaje planetario completo en cuarenta a sesenta años bajo supuestos optimistas pero físicamente plausibles. Es especulativo. No es incorrecto. La física se sostiene. La ingeniería aún no existe. Pero alguien hizo los cálculos, y los cálculos dicen que un solo planeta podría alimentar una civilización.
Christina Theodoris lleva años enseñándole a las máquinas a leer genomas como los modelos de lenguaje leen texto. Como investigadora en los Gladstone Institutes y profesora en la Universidad de California en San Francisco, creó Geneformer, un modelo fundacional para biología unicelular. El 1 de abril, ella y sus colegas — con apoyo de NVIDIA — publicaron MaxToki. Donde los modelos actuales consideran un estado celular a la vez, MaxToki modela trayectorias: cómo cambian las células a lo largo de la vida humana. Entrenado con casi un billón de tokens genéticos, aprendió a predecir los impulsores del envejecimiento — no como instantáneas estáticas sino como secuencias que se despliegan. Se generalizó a trayectorias no vistas mediante aprendizaje en contexto e identificó nuevos objetivos moduladores del envejecimiento que luego fueron verificados experimentalmente in vivo. El modelo no solo describe cómo se ve una célula a los setenta. Traza el camino de los treinta a los setenta e identifica dónde podría alterarse la ruta.