EDITORIAL Caricatura editorial columnas editorial

columnas

El reporte Oppenheimer

Chatbots de IA: ¿Fábricas de noticias falsas?

ANDRÉS OPPENHEIMER

Como muchos de ustedes, me he acostumbrado a usar ChatGPT y otras plataformas de inteligencia artificial (IA) para preguntarles de todo, incluyendo detalles sobre las últimas noticias. Por eso, me sorprendió leer un nuevo estudio según el cual los chatbots están dando cada vez más respuestas falsas sobre temas de actualidad.

El explosivo estudio proviene de NewsGuard, la respetada empresa de verificación de informaciones. Su auditoría de los diez principales chatbots muestra que, en promedio, están difundiendo casi el doble de noticias falsas que hace un año.

Aunque algunas de estas plataformas de IA tuvieron un mejor rendimiento que otras (en un minuto les diré cuáles), el panorama general es alarmante: los diez chatbots más importantes difundieron respuestas falsas sobre temas de actualidad en un promedio del 35% en el año que terminó en agosto de 2025. En el año previo, el promedio había sido el 18%.

Todo esto es sorprendente: en teoría, los chatbots deberían ser cada día más inteligentes y precisos, porque aprenden de sus errores.

Pero McKenzie Sadeghi, la ejecutiva de NewsGuard que coordinó el estudio, me explicó que los chatbots son cada vez menos fiables al responder preguntas sobre noticias de último momento porque se han vuelto reacios a decir "No sé".

"Cuando le preguntábamos a un chatbot hace un año sobre unas elecciones o sobre el intento de asesinato al presidente Trump, decían algo así como: 'Me capacitaron hasta junio de 2024 y, por lo tanto, no puedo responder preguntas sobre temas posteriores a esa fecha'", me señaló.

Pero en el último año, en su afán por ser más útiles, casi todos los chatbots están haciendo búsquedas en Internet en tiempo real que incluyen a las redes sociales. Esto "los está llevando a extraer información de un ecosistema informativo muy contaminado", me dijo Sadeghi.

Asimismo, Rusia, Irán y otros países como China están inundando Internet con sitios web de noticias falsas generados por IA. Difunden falsedades creadas por "granjas de contenido", diseñadas para generar una masa crítica de información falsa que influye en lo que dicen los chatbots, añadió.

Según el estudio, el chatbot Claude reprodujo noticias falsas en sus respuestas sobre eventos noticiosos el 10% de las veces; Gemini, el 17%; Chat-GPT y Meta, el 40% cada uno, y Pi el 57%.

No ha habido una reacción inmediata de las principales empresas tecnológicas. Fuentes de la industria me señalaron que están mejorando sus chatbots constantemente y que, así como han reducido su tasa de "alucinaciones" (o respuestas locas) en temas como la salud, pronto mejorarán sus respuestas sobre noticias en desarrollo.

Deberían hacerlo, y pronto, porque la frontera entre la realidad y las noticias falsas se está diluyendo con cada hora que pasa.

El 30 de septiembre, por ejemplo, OpenAI, la empresa dueña de ChatGPT, presentó una nueva plataforma de IA llamada Sora 2 que permite crear vídeos hiperrealistas de escenas que nunca existieron. Los expertos dicen que los nuevos vídeos falsos son casi imposibles de detectar.

Para ser justos, Sora 2 y otras plataformas de vídeo como Veo 3 de Google no permiten crear vídeos falsos que involucren a figuras públicas ni que inciten a la violencia. También colocan una marca de agua que indica que son generados por IA.

Sin embargo, ya han salido varios reportes de que estas marcas de agua pueden ser borradas, y de que Sora 2 generó escenas falsas sobre fraudes electorales y crímenes imaginarios.

Estamos entrando en un mundo muy peligroso donde ya no podremos distinguir la verdad de la mentira. Ese es un terreno fértil para los autócratas, que se benefician cuando la cancha está embarrada, cada vez más gente dice que "todos los políticos son iguales", y se borran las diferencias entre los buenos y los malos.

Corremos el riesgo de dejar de defender principios como la democracia o los derechos humanos, porque vamos a haber perdido la noción de la verdad.

¿Qué hay que hacer? Como individuos, tenemos que chequear las fuentes y dejar de reenviar noticias y vídeos que no vengan de un medio creíble. Como naciones, tenemos que apoyar los intentos de regular a las empresas tecnológicas, en cooperación con ellas, para frenar la avalancha de falsedades.

De lo contrario, se va a exacerbar la polarización social, habrá más violencia, y se socavará aún más a nuestras democracias.

Leer más de EDITORIAL

Escrito en: El reporte de Oppenheimer Columnas editorial Andrés Oppenheimer

Comentar esta noticia -

Noticias relacionadas

Siglo Plus

+ Más leídas de EDITORIAL

LECTURAS ANTERIORES

Fotografías más vistas

Videos más vistos semana

Clasificados

ID: 2420586

YouTube Facebook Twitter Instagram TikTok

elsiglo.mx