Tecnología Inteligencia Artificial Celulares WhatsApp tecnología

Inteligencia Artificial

¿Por qué Anthropic creó una IA que nunca salió a la luz?

El modelo detectó fallos críticos en software global, generando alertas por su potencial uso en ciberataques masivos

¿Por qué Anthropic creó una IA que nunca salió a la luz?

¿Por qué Anthropic creó una IA que nunca salió a la luz?

BETO GOITIA

La empresa tecnológica Anthropic sorprendió al anunciar un modelo de inteligencia artificial que decidió no lanzar al público debido a los riesgos que representa para la seguridad digital global.

¿Qué es Claude Mythos y por qué genera preocupación?

Según información de Deutsche Welle, el sistema denominado Claude Mythos ha demostrado una capacidad avanzada para detectar vulnerabilidades en programas informáticos.

La creación de la IA es limitada ante la creatividad humana, señala estudio

VER MÁS La creación de la IA es limitada ante la creatividad humana, señala estudio

Un estudio español resalta que la creatividad de la IA es limitada cuando no recibe instrucciones claras

El modelo logró identificar miles de fallos en aplicaciones ampliamente utilizadas, incluyendo algunos que llevaban décadas sin ser detectados, de hecho, la empresa aseguró que una de estas vulnerabilidades tenía más de 27 años activa sin haber sido descubierta.

Esta capacidad sitúa a la IA por encima de la mayoría de especialistas en ciberseguridad, lo que encendió alertas sobre su posible uso indebido, especialmente por parte de hackers.

¿Por qué Anthropic decidió no hacer pública esta IA?

De acuerdo con Deutsche Welle, la compañía optó por restringir el acceso a Claude Mythos debido al riesgo de que sus capacidades sean utilizadas para explotar sistemas digitales.

Anthropic lanza una función que permite a su IA controlar tu computadora

VER MÁS Anthropic lanza una función que permite a su IA controlar tu computadora

Permite a Claude interactuar directamente con la interfaz del ordenador del usuario para completar tareas complejas

El propio ejecutivo Mike Krieger explicó que el modelo no será liberado al público, sino que será utilizado únicamente en entornos controlados, la decisión responde a preocupaciones sobre ciberataques a gran escala, que podrían afectar desde usuarios comunes hasta infraestructuras críticas.

Estas inquietudes han alcanzado incluso al sector financiero de Estados Unidos, donde autoridades han sostenido reuniones con grandes bancos para analizar los posibles riesgos derivados de esta tecnología.

¿Cómo se utilizará esta tecnología de forma controlada?

En lugar de publicar el modelo, Anthropic lanzó el proyecto “Glasswing”, una iniciativa que busca utilizar la IA como herramienta defensiva.

En este programa participan empresas como CrowdStrike, Palo Alto Networks, Microsoft y Apple, junto con organizaciones como la Linux Foundation.

México desarrolla IA para detectar huevos de mosquito y frenar dengue

VER MÁS México desarrolla IA para detectar huevos de mosquito y frenar dengue

Herramienta automatiza conteo en ovitrampas y mejora vigilancia ante repunte de casos

El objetivo es que especialistas identifiquen y corrijan fallos antes de que puedan ser explotados, según expertos citados en el informe, la inteligencia artificial ha reducido drásticamente el tiempo entre el descubrimiento de una vulnerabilidad y su aprovechamiento, pasando de meses a minutos.

Además, Anthropic ha mantenido contacto con el gobierno estadounidense para abordar el impacto de esta tecnología, lo que refleja la magnitud de las implicaciones en seguridad nacional.

Leer más de Tecnología

Escrito en: Inteligencia Artificial Hackeos IA Anthropic Estados Unidos Claude Mythos Glasswing Microsoft Apple Tecnología Ciencia

Comentar esta noticia -

Noticias relacionadas

Siglo Plus

+ Más leídas de Tecnología

LECTURAS ANTERIORES

Fotografías más vistas

Videos más vistos semana

¿Por qué Anthropic creó una IA que nunca salió a la luz?

Clasificados

ID: 2466248

elsiglo.mx