¿Por qué Anthropic creó una IA que nunca salió a la luz?
La empresa tecnológica Anthropic sorprendió al anunciar un modelo de inteligencia artificial que decidió no lanzar al público debido a los riesgos que representa para la seguridad digital global.
¿Qué es Claude Mythos y por qué genera preocupación?
Según información de Deutsche Welle, el sistema denominado Claude Mythos ha demostrado una capacidad avanzada para detectar vulnerabilidades en programas informáticos.

VER MÁS La creación de la IA es limitada ante la creatividad humana, señala estudio
Un estudio español resalta que la creatividad de la IA es limitada cuando no recibe instrucciones clarasEl modelo logró identificar miles de fallos en aplicaciones ampliamente utilizadas, incluyendo algunos que llevaban décadas sin ser detectados, de hecho, la empresa aseguró que una de estas vulnerabilidades tenía más de 27 años activa sin haber sido descubierta.
Esta capacidad sitúa a la IA por encima de la mayoría de especialistas en ciberseguridad, lo que encendió alertas sobre su posible uso indebido, especialmente por parte de hackers.
¿Por qué Anthropic decidió no hacer pública esta IA?
De acuerdo con Deutsche Welle, la compañía optó por restringir el acceso a Claude Mythos debido al riesgo de que sus capacidades sean utilizadas para explotar sistemas digitales.

VER MÁS Anthropic lanza una función que permite a su IA controlar tu computadora
Permite a Claude interactuar directamente con la interfaz del ordenador del usuario para completar tareas complejasEl propio ejecutivo Mike Krieger explicó que el modelo no será liberado al público, sino que será utilizado únicamente en entornos controlados, la decisión responde a preocupaciones sobre ciberataques a gran escala, que podrían afectar desde usuarios comunes hasta infraestructuras críticas.
Estas inquietudes han alcanzado incluso al sector financiero de Estados Unidos, donde autoridades han sostenido reuniones con grandes bancos para analizar los posibles riesgos derivados de esta tecnología.
¿Cómo se utilizará esta tecnología de forma controlada?
En lugar de publicar el modelo, Anthropic lanzó el proyecto “Glasswing”, una iniciativa que busca utilizar la IA como herramienta defensiva.
En este programa participan empresas como CrowdStrike, Palo Alto Networks, Microsoft y Apple, junto con organizaciones como la Linux Foundation.

VER MÁS México desarrolla IA para detectar huevos de mosquito y frenar dengue
Herramienta automatiza conteo en ovitrampas y mejora vigilancia ante repunte de casosEl objetivo es que especialistas identifiquen y corrijan fallos antes de que puedan ser explotados, según expertos citados en el informe, la inteligencia artificial ha reducido drásticamente el tiempo entre el descubrimiento de una vulnerabilidad y su aprovechamiento, pasando de meses a minutos.
Además, Anthropic ha mantenido contacto con el gobierno estadounidense para abordar el impacto de esta tecnología, lo que refleja la magnitud de las implicaciones en seguridad nacional.