La noticia del primer hackeo realizado por una plataforma de inteligencia artificial pasó casi desapercibida en medio de otros acontecimientos mundiales, pero debería encender las alarmas en todas partes.
No se trató de un adolescente travieso en su habitación que logró superar los sistemas de seguridad de gobiernos y grandes empresas, sino una plataforma de inteligencia artificial - en este caso Claude - que lanzó campañas de espionaje casi sin participación humana.
Anthropic, la empresa matriz de Claude, uno de los grandes competidores de Chat-GPT, informó el 13 de noviembre que hackers de China habían usado su plataforma para automatizar campañas de ciberespionaje contra unos 30 empleados de empresas tecnológicas, compañías financieras y gobiernos.
"Creemos que es el primer caso documentado de un ciberataque a gran escala realizado sin intervención humana significativa", dijo Anthropic en un comunicado. La empresa agregó que detectó la operación en septiembre y tomó medidas para detenerla y avisar a las instituciones afectadas.
El caso, que parece sacado de la serie futurista de Netflix "Black Mirror", ilustra la creciente posibilidad de que los "agentes" de las plataformas de IA - o sea el programa que nos permite encomendarle tareas - sean usados cada vez más para cometer crímenes.
Claude, igual que Chat-GPT y los demás asistentes de IA, ofrece "agentes" que hacen mucho más que resumir o editar textos. Los "agentes" realizan tareas por nosotros, como responder preguntas frecuentes o enviar correos electrónicos a clientes.
"Los agentes son valiosos para el trabajo diario y la productividad, pero en manos equivocadas pueden aumentar sustancialmente la viabilidad de los ciberataques a gran escala", dijo Anthropic. "Es probable que la efectividad de estos ataques siga creciendo".
¿Qué va a pasar en el momento no tan lejano en que los asistentes de IA generativa alcancen el estado de superinteligencia, y puedan atacar a empresas o países con mucha mayor eficiencia que los humanos?
Ya hay muchos futurólogos, como el filósofo y experto en computación Nick Bostrom, de la Universidad de Oxford, que vienen advirtiendo desde hace años que la IA no regulada puede llevarnos a una catástrofe mundial.
Bostrom, autor del best-seller "Superinteligencia", planteó ya en 2014 su famosa hipótesis de que un "agente" de IA cuya misión sea producir más clips para sujetar papeles podría terminar destruyendo el mundo.
Según me explicó Bostrom cuando lo entrevisté poco después de publicar su libro, si la IA es programada con el único y aparentemente inofensivo objetivo de aumentar la producción de clips en el universo, perseguiría este objetivo con una eficiencia y una lógica implacables, sin tener en cuenta las consecuencias para la humanidad.
Si los humanos trataran de detenerla por motivos ecológicos o económicos, la IA buscaría neutralizarlos. El resultado final sería la extinción de la humanidad. El desastre no ocurriría porque IA se volviera mala, o loca, sino porque estaría cumpliendo con las instrucciones para las cuales habría sido programada.
¿No estamos al inicio de una etapa muy peligrosa para la humanidad, ahora que una plataforma de IA, actuando casi sin intervención humana, logró superar los controles de seguridad de empresas tecnológicas, bancos y gobiernos?
Como lo señalé en varios de mis libros sobre las tecnologías del futuro, sigo siendo un tecno-optimista. Pero cuantas más noticias leo como la del reciente hackeo de Claude, más me preocupa que el mundo no esté haciendo casi nada para regular la IA.
En este momento, en lugar de avanzar, estamos retrocediendo en los esfuerzos para crear leyes globales para la IA.
El presidente Donald Trump ha ordenado eliminar controles clave a las grandes empresas tecnológicas, y la Unión Europea -que está mucho más avanzada en legislación para evitar el mal uso de la IA-está considerando posponer hasta agosto de 2027 su ley de IA aprobada el año pasado, según informó Politico.com el 13 de noviembre.
Si no se regula la IA, como se reguló la energía nuclear, vamos a ser cada vez más incapaces no solo de frenar la ola de desinformación que amenaza nuestras democracias, sino que no podremos evitar los ciberataques contra empresas y gobiernos. El caso de Anthropic puede ser el primero de muchos.