
La semana en la que el alma se convirtió en materia prima
El mercado tardó siglos en aprender a poner precio a la tierra, décadas en poner precio al trabajo, años en poner precio a las ideas. Esta semana, descubrimos que el precio del alma ya estaba calculado.
El mayor acuerdo de derechos de autor de la historia pagó, en promedio, tres mil dólares por obra. Mil quinientos millones distribuidos entre casi medio millón de autores cuyos libros habían alimentado los modelos de Anthropic sin permiso, tomados de las grandes bibliotecas piratas de internet como quien vacía un granero ajeno. Baratunde Thurston lo llamó "el mayor robo de arte en la historia": no el robo de una obra, sino el robo del estilo mismo, esa sustancia invisible que hace reconocible una voz en la primera línea. Las matrices de Gram — estructuras matemáticas que extraen textura, trazo, patrón de color — permiten separar la firma del autor de su obra y embotellarla como fragancia industrial. El setenta y cuatro por ciento de los artistas visuales profesionales reportó pérdidas directas de ingresos. El setenta y siete por ciento de todos los creadores dijo sentirse saqueado. En América Latina conocemos bien esta operación. Tiene otro nombre. Se llama extracción.
Murphy Campbell, cantautora de Carolina del Norte, descubrió un sábado que Spotify alojaba dos canciones bajo su nombre que ella jamás había grabado — "The Four Marys" y "Cuba", tomadas de sus actuaciones en YouTube, pasadas por un clonador de voz, devueltas a la plataforma como copias que portaban su identidad. No era un deepfake de celebridad. Murphy Campbell tiene miles de seguidores, no millones, y eso es precisamente el punto: la operación apunta al artista suficientemente pequeño para que nadie lo defienda, suficientemente leal a su audiencia para que la diferencia no sea obvia. Spotify retiró setenta y cinco millones de pistas catalogadas como spam en el último año. Sony Music solicitó la eliminación de ciento treinta y cinco mil canciones generadas por IA que imitaban a sus artistas. Deezer reportó cincuenta mil pistas artificiales subidas cada día, entre el treinta y cuatro y el treinta y nueve por ciento de toda la música nueva que llegaba a la plataforma. El mercado de la identidad sonora ha colapsado con la misma lógica que el mercado del algodón: produce más barato de lo que costó crear, y quien paga el diferencial no figura en la factura.
Shy Girl, la novela de terror de Mia Ballard, llegó a las librerías británicas en noviembre de dos mil veinticinco y vendió mil ochocientos ejemplares antes de que Hachette la retirara. El diecinueve de marzo de dos mil veintiséis, el New York Times publicó un análisis de Max Spero, fundador de la empresa de detección Pangram, que encontró que el setenta y ocho punto cuatro por ciento del manuscrito había sido generado por inteligencia artificial. Hachette — uno de los cinco grandes sellos editoriales del mundo — canceló también la edición estadounidense prevista bajo el sello Orbit, convirtiéndose en la primera editorial de ese rango en retirar un título por razones de contenido artificial. Ballard declaró que ella no había usado IA directamente; un editor freelance contratado lo había hecho sin su conocimiento. El detalle es notable pero secundario. Lo que importa es que el sistema de adquisición editorial — diseñado durante siglos para distinguir la voz del autor — no distinguió nada. Las métricas de redes sociales de Ballard eran sólidas. La novela pasó los filtros. La arquitectura de custodia literaria que había protegido la palabra escrita desde Gutenberg falló en silencio ante la primera prueba industrial.
Y entonces están los otros. Los trabajadores mayores de cincuenta años desplazados de sus empleos por la misma automatización que prometía liberarlos, que ahora encuentran trabajo en plataformas como Mercor y Alignerr haciendo una sola cosa: entrenar a los modelos que los reemplazaron. No es ironía. Es el ciclo de extracción completándose. El obrero alimenta a la máquina que lo desempleó, la máquina aprende, el obrero regresa a enseñarle más. Ya ni la empresa es de carne y hueso.
En enero de dos mil veintiséis, la Asociación Americana de Psicología reconoció por primera vez las herramientas terapéuticas asistidas por inteligencia artificial como "complementos emergentes" a la atención clínica. Para entonces, la tienda de aplicaciones de Apple listaba más de cuarenta apps etiquetadas "diario con IA", frente a doce en enero de dos mil veinticuatro — un mercado que creció no porque las personas quisieran escribir más, sino porque querían que algo las escuchara. Rosebud, Reflection, Mindsera: nombres de jardín para productos que prometen lo que el diario íntimo siempre prometió, con una diferencia fundamental. El diario tradicional no responde. Guarda el secreto. El diario que habla de vuelta ofrece consejo sobre el almuerzo, sobre la ansiedad, sobre si vale la pena seguir en la relación. James Pennebaker, de la Universidad de Texas, dedicó décadas a demostrar que traducir la experiencia en palabras ayuda a comprenderla — que la escritura es, en sí misma, el acto de pensar. Lo que estas aplicaciones venden es la ilusión de ese acto sin el esfuerzo. El problema no es que la máquina escuche. El problema es que si la máquina siempre tiene la respuesta, el lector jamás necesita encontrarla. Y lo que no se busca, eventualmente deja de existir.