magen: Freepik
¿Son los actuales sistemas de inteligencia artificial (IA) un juego de niños en comparación con las amenazantes super-IA que podrían llegar? Dos referentes mundiales, los investigadores Eliezer Yudkowsky y Nate Soares, mantienen que sí, que la humanidad avanza sonámbula hacia el desastre y alertan de los peligros de que una máquina sea más inteligente que cualquier persona o que el total de la población.
Juntos firmaron Si alguien la crea, todos moriremos, un libro que se ha situado entre los más vendidos de no ficción en Estados Unidos y que ha desatado un intenso debate sobre si los riesgos que describen son reales o son argumentaciones teóricas, desencadenando reacciones muy polarizadas por presentar escenarios de “todo o nada” —la supervivencia o la extinción—, pero también alabanzas entre quienes propugnan la necesaria regulación y gobernanza tecnológica.
Soares manifiesta que detener la carrera “absolutamente imprudente” hacia la superinteligencia es posible y no tiene por qué afectar a la vida cotidiana. No habla de cerrar ChatGPT, de renunciar a los coches autónomos ni de abandonar la IA aplicada al descubrimiento de nuevos fármacos, sino de desistir de la carrera por una inteligencia “que nadie, ni siquiera los que las construyen, comprende”.
Eliezer Yudkowsky y Nate Soares son, respectivamente, el presidente fundador y el director del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés), que nació hace 25 años para estudiar el desarrollo de la IA y queahora centra su labor en desentrañar el peligro potencial de estas tecnologías, así como en la necesidad de asegurar que estas herramientas se sustenten en programas que sean “amigables”.

NO SUBESTIMAR
Los dos firmaron en 2023, junto a miles de científicos de todo el mundo —entre ellos varios premios Nobel— una carta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada, ralentizando así su desarrollo; una carta que a su juicio se ha quedado muy corta porque “subestimaba terriblemente” el problema ante la posibilidad real de que existan super-IA (SIA) capaces de desarrollar objetivos propios que las sitúen en conflicto con los humanos.
Esa SIA no ha llegado y el libro puede interpretarse como un relato de ciencia ficción o como un alegato a favor de una legislación responsable y de un control absoluto de la investigación en estas tecnologías, para evitar que se acaben convirtiendo en la mayor amenaza para la humanidad.
Nate Soares mantiene que los actuales sistemas de IA “siguen siendo tontos” y no son gran cosa comparados con las super-IA que las empresas intentan crear, pero ha apuntado las diferencias radicales que se pueden producir con un ejemplo puntual: el ser humano y el chimpancé tienen un cerebro similar, pero nuestra especie cruzó un umbral y es capaz de diseñar cohetes y de pisar la Luna.

EL PUNTO DE NO RETORNO
“No sabemos cuándo cruzará ese umbral la IA, pero sí sabemos que es posible”, ha señalado Soares, para quien desarrollar una superinteligencia que nadie comprende es “una receta para el desastre” y el primer paso debería ser que los líderes mundiales entendieran y asumieran que esa tecnología puede ser letal.
Según el coautor de esta obra, las advertencias, las amenazas y los peligros de la SIA los han descrito ya algunos de los directores de laboratorios, investigadores o empresarios —cita entre ellos nombres como Sam Altman (OpenAI), Elon Musk o Geoffrey Hinton (considerado como uno de los padres de la IA)—, y asegura que es irrelevante si estos sistemas pueden llegar a tener sentimientos; “lo importante es si pueden escapar, replicarse o construir sus propias infraestructuras”.
“Nadie sabe dónde está el punto de no retorno”, ha señalado, aseverando que la SIA es “como un tren que avanza hacia nosotros”, y los académicos, los investigadores y los directores de muchos laboratorios están gritando “¡Cuidado con el tren!”, pero los líderes mundiales no escuchan el mensaje.

REGULACIÓN ANTE LOS RIESGOS QUE YA SE MANIFIESTAN
En este contexto, el expresidente colombiano y Nobel de la Paz, Juan Manuel Santos señaló que la inteligencia artificial supone una amenaza para el mundo en muchos aspectos si no se regula.
“En la inteligencia artificial, que es uno de los riesgos existenciales del planeta, ahora es una competencia ver quién gana la carrera en lugar de cooperar para ver cómo se regula”, dijo, añadiendo que uno de los peligros está en su cada vez más extendido uso militar.
“Miren lo que está pasando con los drones en Ucrania. Eso todo es con inteligencia artificial, que no es invulnerable. Y si llegamos a depender de que (una máquina) pueda oprimir el botón de una bomba nuclear, pues estamos perdidos”, agregó el Nobel de la Paz de 2016.
Al comentar el potencial riesgo nuclear de la guerra en Irán, Santos relató que el año pasado le correspondió develar el llamado “reloj del juicio final” y adelantar la manecilla de 90 a 89 segundos para la medianoche, lo más cerca que se había estado de la destrucción del planeta en 77 años.
El Reloj del Juicio Final, cabe mencionar, fue creado en 1947 por el Boletín de Científicos Atómicos (Bulletin of the Atomic Scientists) de la Universidad de Chicago, y representa la proximidad de la humanidad a una catástrofe global.
El motivo que le dieron los científicos para ese acercamiento a la medianoche fue que el riesgo de un incidente nuclear ha aumentado vertiginosamente por la cantidad de bombas que se han producido, por la tecnología que se ha generado para lanzar los misiles, por el número de países que hoy tienen armas nucleares y por la inteligencia artificial.
Según el expresidente, mientras más conversa con los expertos, “más se da cuenta uno de que no sabemos bien para dónde va” la IA.
“Lo que sí sabemos es que tenemos que tratar de encauzarla para beneficio de la humanidad y prevenir que se convierta en algo que sea perjudicial”, afirmó al señalar que se puede hacer “algo parecido a lo que discutieron Einstein y Oppenheimer con latecnología nuclear” después del lanzamiento de las primeras bombas atómicas.
Con ese propósito, The Elders, un grupo de líderes mundiales creado en 2007 por Nelson Mandela y presidido por Santos, convocó para finales de marzo una reunión en Londres con cerca de 15 expertos de diferentes países para que les ilustren “sobre quéposición debemos tener frente a la inteligencia artificial, porque todos estamos confundidos”.
“Todos los días sale una teoría nueva, todos los días sale una propuesta nueva”, expresó el Nobel de la Paz, quien dijo que incluso el presidente de una empresa tecnológica le comentó el año pasado en San Francisco, Estados Unidos, la necesidad de proteger al ser humano de la IA.
Redacción S.N.