El jefe de seguridad de Anthropic se retira para escribir poesía: «El mundo está en peligro»

<p>El pasado lunes, Mrinank Sharma <a href=»https://x.com/MrinankSharma/status/2020881722003583421″><u>publicó en X</u></a> una carta de despedida dirigida a sus compañeros de trabajo que acumuló más de un millón de visualizaciones en pocas horas. Sharma lideraba el equipo de investigación en seguridad de Anthropic, la unidad encargada de que Claude, uno de los chatbots más utilizados, no se convierta en un problema para la sociedad. L<strong>levaba dos años trabajando en preparar las defensas contra problemas como el bioterrorismo asistido por IA</strong>, o las causas de la extrema adulación que suelen emplear los modelos de lenguaje. Doctor en aprendizaje automático por Oxford, había llegado a San Francisco en 2023 convencido de que podía contribuir a que la tecnología fuese segura.</p>

Seguir leyendo

 Mrinank Sharma era el responsable del equipo de investigación de seguridad de la compañía. En su carta de despedida, advierte de varias «crisis interconectadas» y tensiones internas en el negocio de la IA  

El pasado lunes, Mrinank Sharma publicó en X una carta de despedida dirigida a sus compañeros de trabajo que acumuló más de un millón de visualizaciones en pocas horas. Sharma lideraba el equipo de investigación en seguridad de Anthropic, la unidad encargada de que Claude, uno de los chatbots más utilizados, no se convierta en un problema para la sociedad. Llevaba dos años trabajando en preparar las defensas contra problemas como el bioterrorismo asistido por IA, o las causas de la extrema adulación que suelen emplear los modelos de lenguaje. Doctor en aprendizaje automático por Oxford, había llegado a San Francisco en 2023 convencido de que podía contribuir a que la tecnología fuese segura.

Su mensaje de salida fue deliberadamente vago en detalles pero inequívoco en el tono. «El mundo está en peligro. Y no solo por la IA o las armas biológicas, sino por toda una serie de crisis interconectadas que están ocurriendo de forma simultánea. He visto con frecuencia lo difícil que es dejar que nuestros valores gobiernen nuestras acciones. Lo he visto dentro de la propia organización».

La carta no acusa a Anthropic de nada concreto pero la insinuación de que hay una brecha entre el discurso público sobre seguridad y la práctica interna resulta especialmente incómoda para una empresa fundada por ex ejecutivos de OpenAI que abandonaron la compañía por preocupaciones similares. Su último proyecto investigaba cómo los asistentes de IA pueden «distorsionar nuestra humanidad». Ahora, asegura, volverá la Reino Unido para escribir poesía y estudiar filosofía.

El problema de la dimisión de Sharma es que no ha sido la única sorpresa en el negocio de la IA de las últimas semanas y apunta a un cambio de sentimiento en Silicon Valley hacia las herramientas que han contribuido a crear. Apenas unos días antes, el 5 de febrero, OpenAI lanzaba GPT-5.3 Codex y Anthropic Claude Opus 4.6. Dos modelos que, según voces relevantes de la industria, suponen un punto de inflexión para la sociedad.

Matt Shumer, fundador y consejero delegado de OthersideAI lo describe así en un largo artículo publicado también en X pero del que se ha hecho eco la revista Fortune. «Estamos en la fase de ‘esto parece exagerado’ de algo mucho más grande que la pandemia», explica estableciendo un paralelismo con los inicios de 2020, cuando ya se hablaba de COVID-19 pero el mundo aún no había reaccionado. «Ya no no soy necesario para el trabajo técnico. Describo lo que quiero en inglés y simplemente aparece hecho en unas horas. No un borrador que tenga que corregir. El producto terminado».

Lo cierto es que el impacto de Codex, Opus 4.6 y otras herramientas se ha trasladado a los mercados. El índice S&P 500 centrado en software encadenó ocho jornadas consecutivas de pérdidas y acumula un desplome del 20% en lo que va de año. Algunos analistas lo han bautizado como el SaaSpocalypse, el momento en que Wall Street ha empezado a tener en cuenta cuántas suscripciones de software empresarial (lo que se conoce como SaaS o «software como servicios») sobrarán cuando una IA haga el mismo trabajo que ahora hacen los humanos.

Era un problema que ya estaba causando inquietud entre desarrolladores porque los modelos de lenguaje son especialmente buenos a la hora de crear código. Casi el 4% de las contribuciones de código a los repositorios de GitHub viene ya de Claude Code, para finales de año se espera que la cifra ronde el 20%. Una encuesta interna de Anthropic filtrada a principios de mes por The Telegraph reflejaba el ánimo dentro de la propia empresa: «Tengo la sensación de que vengo a trabajar cada día para quedarme sin empleo», confesaba un ingeniero.

Ahora, esa misma sensación se está trasladado a otros mercados adyacentes, como los servicios legales, el marketing o la consultoría. Las últimas versiones de agentes de IA son capaces de manipular ficheros y hojas de cálculo, buscar patrones o crear presentaciones y resúmenes con la habilidad de un humano.

La sacudida no se limita al software. El mismo fin de semana en que Shumer publicaba su carta, ByteDance (la empresa matriz de TikTok presentaba un avance de Seedance 2.0, un modelo de generación de vídeo que ha hecho saltar las alarmas en la industria audiovisual.

Seedance 2.0 no genera clips sencillos de cuatro segundos. Produce secuencias de varias tomas con coherencia visual entre escenas, movimientos de cámara cinematográficos y sincronización nativa de audio y labios. Sus primeros usuarios sitúan su tasa de acierto por encima del 90% frente al 20% habitual en herramientas anteriores. Un vídeo publicitario que antes exigía un presupuesto de 30.000 dólares puede generarse ahora por menos de tres y en cuestión de minutos, simplemente describiendo las escenas.

Las acciones de empresas chinas de entretenimiento han subido con fuerza tras la presentación. La propia ByteDance tuvo que suspender rápidamente una función que permitía subir rostros humanos como referencia porque usuario había generado un clon digital fotorrealista de sí mismo sin proporcionar muestras de voz ni captura de movimiento. La herramienta fue capaz de deducirlo todo a partir de su fotografía.

Lo que diferencia este momento de alarmas anteriores es la velocidad y, sobre todo, un dato que la propia OpenAI incluyó en la documentación técnica de GPT-5.3 Codex. El modelo ha sido «instrumental para su propia creación». La IA ayudó a depurar su propio entrenamiento, gestionar su despliegue y diagnosticar sus evaluaciones. Dario Amodei, consejero delegado de Anthropic, confirma que la IA escribe ya «gran parte del código» de su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente «gana inercia mes a mes».

METR, una organización que mide la duración de tareas que una IA puede completar sin intervención humana, situaba la cifra en diez minutos hace un año. Hoy supera las cinco horas. Ese ritmo se duplica cada siete meses. Amodei ha llegado a decir públicamente que la IA podría eliminar el 50% de los empleos administrativos en un plazo de uno a cinco años.

Las empresas no van a desmantelar infraestructuras valoradas en miles de millones de la noche a la mañana pero el escepticismo no debería ocultar lo que sí está ocurriendo. Parece que Silicon Valley atraviese, como se suele decir ahora, un vibe shift (es decir, un cambio de vibraciones o actitud). La IA es fascinante, pero ha dejado de verse como algo que ocurre en el vacío o en un plano teórico. En apenas diez días, los modelos de lenguaje han hundido la valoración del software empresarial, un modelo de vídeo chino ha puesto en alerta a Hollywood, y el responsable de seguridad de una de las empresas de IA más poderosas del mundo ha elegido marcharse a estudiar poesía porque siente que el mundo está en peligro.

 Tecnología

By info@cadizvibrante.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Posts