
Y así va la cosa
El Pentágono prohibió un chatbot. El Departamento del Tesoro quiere usarlo. El Departamento de Comercio ya lo está usando. Y así va.
Un modelo de inteligencia artificial llamado Claude Mythos quedó vetado este año por el gobierno de Estados Unidos. El Pentágono declaró a Anthropic «riesgo de cadena de suministro» y la sacó de todos los contratos del Departamento de Defensa. Luego, según reportó Politico el catorce de abril, el Departamento del Tesoro —a través de su CIO, Sam Corcos— pidió acceso al modelo para cazar vulnerabilidades. El Centro de Estándares e Innovación de IA del Departamento de Comercio ya lo estaba probando. El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, instaron a los bancos más grandes de Wall Street a correr sus propias pruebas sobre el modelo que su propio gobierno acababa de prohibir. El Instituto de Seguridad de la IA del Reino Unido le concedió acceso anticipado y reportó que Mythos resolvió el setenta y tres por ciento de tareas expertas de ciberseguridad y completó, por primera vez, un ataque simulado de treinta y dos pasos contra una red corporativa. La máquina, al parecer, es peligrosa. La máquina, también al parecer, es útil. Ambos grupos se están repartiendo la cuenta.
Apple está mandando a casi doscientos ingenieros de Siri a un bootcamp de programación con inteligencia artificial. El bootcamp dura varias semanas. Termina dos meses antes del rediseño mayor de Siri, programado para la conferencia WWDC del ocho de junio. The Information reportó la historia el quince de abril. Apple no ha nombrado a ningún ejecutivo responsable. La idea, según filtraciones internas, es que los ingenieros aprendan a usar las herramientas de programación con IA que, según se rumora, ellos mismos debieron haber construido hace dos años. Son los mismos ingenieros que harán el rediseño. Después del rediseño, Siri será mejor. La mejora será el resultado del código que escribieron con ayuda de Claude, porque Apple todavía no tiene un modelo propio lo suficientemente bueno. Nadie en Cupertino está comentando esto en voz alta.
OpenAI, una empresa cuya valuación cerró en ochocientos cincuenta y dos mil millones de dólares en abril, está recibiendo preguntas de sus propios inversionistas. Según reportes de Financial Times y Reuters, algunos backers sostienen que la matemática requiere una OPI de un billón doscientos mil millones o más. Mientras tanto, Anthropic está rechazando ofertas de capital de riesgo por ochocientos mil millones de dólares, más del doble de la valuación pre-money de trescientos cincuenta mil millones que aceptó en febrero. La firma facturó treinta mil millones de dólares anualizados a finales de marzo, contra nueve mil millones a finales de 2025. Goldman Sachs, JPMorgan y Morgan Stanley tantean una posible salida a bolsa en octubre. Los números ya no son descriptivos. Los números son adjetivos.
Un hombre llamado Bradley Heppner —acusado de fraude de valores— le pidió a Claude que le ayudara a redactar treinta y un documentos. Se los pasó a sus abogados. El juez federal Jed S. Rakoff, del Distrito Sur de Nueva York, dictaminó el mes pasado que esos documentos no están protegidos por el privilegio abogado-cliente. «Claude no es un abogado», escribió. «Eso es suficiente para desestimar la reclamación.» Añadió que la política de privacidad de Anthropic establece que los inputs pueden ser usados para entrenamiento y compartidos con terceros, por lo cual no había expectativa razonable de confidencialidad. La ironía, que Rakoff señaló con una nota al pie, es que el propio Claude se rehusó a dar consejo legal cuando Heppner lo pidió. La máquina cumplió. El humano no. Las asociaciones de abogados de todo el país están circulando advertencias: si tu cliente le cuenta sus crímenes a un chatbot, esos crímenes ya no son suyos.
OpenAI anunció el quince de abril que la brecha de género en ChatGPT —ochenta por ciento masculino cuando la aplicación se lanzó a fines de 2022— ha desaparecido. La distribución actual: cincuenta y dos por ciento nombres femeninos, cuarenta y ocho por ciento masculinos. La firma infirió el género comparando nombres anonimizados contra el World Gender Name Dictionary. En enero de 2024, las mujeres usuarias representaban el treinta y siete por ciento; en julio de 2025, la mayoría. Es el patrón habitual: toda tecnología que se vuelve realmente general deja de parecer tecnología. Primero es juguete de ingenieros. Luego es utilidad de oficina. Luego es cuchara. Una cuchara no tiene género.