Una empresa de inteligencia artificial construyó algo tan poderoso que decidió no publicarlo. Lo que pasó después cambió la conversación global sobre riesgo tecnológico.

Anthropic y Mythos: el modelo de IA que encendió las alarmas del mundo
Una empresa de inteligencia artificial construyó algo tan poderoso que decidió no publicarlo. Lo que pasó después cambió la conversación global sobre riesgo tecnológico.
En abril de 2026, la empresa de inteligencia artificial Anthropic hizo algo inusual en un sector que vive de los lanzamientos y los anuncios: anunció que había construido un modelo tan potente que consideraba irresponsable ponerlo al alcance del público en general. El modelo se llama Mythos. Y la reacción que generó en dos semanas redefinió la forma en que gobiernos, instituciones financieras y expertos en seguridad entienden el riesgo tecnológico.
Para quienes no siguen de cerca la industria de la inteligencia artificial, el nombre Anthropic puede resultar desconocido. Para quienes sí lo hacen, es una de las empresas más relevantes del mundo en el desarrollo de IA avanzada. Entender qué es Anthropic, qué construyó y por qué genera tanto debate es el punto de partida para comprender por qué este episodio importa, también desde la perspectiva de la gestión organizacional y el riesgo.
¿Qué es Anthropic?
La empresa que puso la seguridad de la IA en el centro de su negocio
Anthropic es una empresa estadounidense de inteligencia artificial con sede en San Francisco, fundada en 2021 por ex miembros de OpenAI, entre ellos Dario Amodei como CEO y su hermana Daniela Amodei como presidenta. Desde su origen, la empresa se posicionó con un enfoque particular: desarrollar IA de frontera —es decir, los modelos más avanzados del mundo— con un énfasis explícito en la seguridad y en comprender los riesgos que estos sistemas pueden generar.
Su producto más conocido es Claude, un asistente de inteligencia artificial conversacional que compite directamente con ChatGPT de OpenAI y Gemini de Google. Claude es el modelo que se usa, por ejemplo, en esta misma plataforma. Anthropic es considerada una de las tres compañías líderes en el desarrollo de IA de frontera a nivel mundial, junto con OpenAI y Google DeepMind.
Lo que distingue a Anthropic de sus competidores no es solo la capacidad técnica de sus modelos, sino su postura pública y su agenda de investigación centrada en la seguridad de la IA: entender cómo estos sistemas pueden fallar, ser mal utilizados o generar consecuencias no previstas, y trabajar para mitigar esos riesgos antes de que se materialicen. Esa es la razón por la que el episodio de Mythos resulta coherente con su identidad como empresa: fueron ellos mismos quienes decidieron limitar el acceso al modelo por razones de seguridad.
Mythos: lo que el modelo puede hacer
Mythos es el nombre del modelo de IA que Anthropic desarrolló y que decidió no publicar de forma amplia. Su característica central, según la propia empresa, es una capacidad sin precedentes en la historia de la IA: identificar y explotar vulnerabilidades ocultas en el software que gestiona infraestructura crítica global. Bancos, redes eléctricas, sistemas gubernamentales.
Por qué este modelo es diferente a todo lo anterior
El Instituto de Seguridad en IA del Reino Unido —el único país fuera de Estados Unidos que recibió acceso al modelo— lo evaluó de forma independiente y publicó sus conclusiones: Mythos representa, en sus propias palabras, «un salto en las capacidades de IA en ciberseguridad». Para los especialistas en gestión de riesgos, esa frase no es retórica. Es una reclasificación del nivel de amenaza.
¿Por qué es tan peligroso desde la perspectiva de la gestión?
La pregunta relevante para una organización no es técnica: no hace falta entender cómo funciona un modelo de IA para comprender el riesgo que representa. La pregunta es: ¿qué pasa si una herramienta con estas capacidades cae en manos equivocadas? Y la respuesta, en este caso, afecta directamente a los activos más críticos de cualquier institución moderna.
Qué tipos de organizaciones quedan expuestas ante un modelo como Mythos
- Sistema financiero: El Banco Central Europeo comenzó a consultar discretamente a los bancos europeos sobre el estado de sus defensas cibernéticas. El ministro de Finanzas de Canadá comparó la amenaza con el cierre del estrecho de Ormuz —una de las rutas de petróleo más críticas del mundo—. Los bancos que usan software estándar de la industria son potencialmente vulnerables a las capacidades identificadas por Mythos.
- Redes de energía: Las infraestructuras eléctricas de múltiples países operan con software que Mythos puede analizar. Un ataque exitoso sobre este tipo de infraestructura tiene consecuencias en cascada: hospitales, comunicaciones, transporte, producción industrial.
- Gobiernos y administración pública: Los sistemas que gestionan bases de datos ciudadanas, servicios críticos y comunicaciones oficiales también forman parte del universo de software analizable por el modelo. La agencia de ciberseguridad de Alemania describió las capacidades de Mythos como un «cambio de paradigma en la naturaleza de las amenazas cibernéticas».
- Organizaciones en general: Muchas empresas privadas de mediana y gran escala utilizan el mismo tipo de software estándar sobre el que Mythos puede operar. La exposición no es exclusiva de entidades gubernamentales o bancarias: alcanza a cualquier organización con sistemas conectados y datos críticos.
La decisión de Anthropic: no publicar, pero actuar
Frente a este escenario, Anthropic tomó una decisión que la propia industria tecnológica encontró inusual: en lugar de lanzar Mythos al mercado, decidió limitar su acceso a un grupo controlado de organizaciones con el objetivo de identificar y corregir las vulnerabilidades que el modelo puede detectar, antes de que estén disponibles al público general.
Esta decisión tiene una lógica de gestión de riesgos clara: si el modelo ya existe y su capacidad es real, la pregunta no es si alguien va a desarrollar algo similar eventualmente, sino cuánto tiempo hay disponible para reforzar las defensas. Anthropic estima que ese tiempo es de al menos 18 meses antes de que otros grupos puedan llegar a capacidades equivalentes.
Lo que este episodio revela sobre el riesgo tecnológico moderno
Más allá de Mythos en particular, este episodio pone en evidencia una tensión estructural que las organizaciones y los responsables de gestión de riesgos no pueden seguir ignorando: la velocidad de desarrollo de las herramientas de IA avanza más rápido que la capacidad de las instituciones para comprender, regular y protegerse de sus consecuencias.
La pregunta que Eduardo Levy Yeyati, ex economista jefe del Banco Central de Argentina y asesor en el Banco Interamericano de Desarrollo, planteó en este contexto es directa: si el acceso a los modelos de IA más avanzados puede ser restringido de forma unilateral por una empresa privada, usando criterios que no son transparentes ni apelables, eso debería ser una preocupación real para los gobiernos y para las organizaciones que dependen de esa infraestructura.
La conexión con la gestión de calidad: sistemas, riesgo y respuesta
Desde la perspectiva de ISO 9001 y la gestión de calidad organizacional, el caso Mythos ilustra con precisión inusual uno de los principios centrales del pensamiento basado en riesgo: la amenaza más peligrosa no es la que ya ocurrió, sino la que el sistema aún no contempla. Las organizaciones que operan hoy con sistemas digitales críticos sin haber revisado su exposición a este nuevo tipo de riesgo están, en términos de gestión, ignorando una señal de alerta mayor.
La respuesta institucional adecuada no es el pánico, ni la parálisis tecnológica. Es exactamente lo que la gestión de riesgos promueve: identificar la exposición real, implementar acciones preventivas proporcionales y mantener la capacidad de respuesta ante escenarios que hasta hace poco eran teóricos. El mundo de la ciberseguridad acaba de recibir una actualización forzada de su mapa de riesgos. Las organizaciones bien gestionadas son las primeras en revisarlo.
