Recientemente apareció en "The Atlantic" un artículo de Charlie Warzel, quien sugiere que estamos viviendo la era de la IA Generativa, cuya emoción definitoria es shock, confusión y ambivalencia, logrando así que el ser humano sienta que se está volviendo loco. Para Wertzel, la IA nos deja con "la sensación de hundimiento de una carrera social hacia un futuro que parece insensible, concebido a toda prisa y aceptado con encogimiento de hombros". Tal cual. La IA generativa aparece sin que yo la invoque y en donde menos espero: música, textos, imágenes, videojuegos, me cae de novedad, pero no acabo de tenerle confianza.
Ya de por sí a veces me siento como persona muy mayor, de esas cuyas vidas se quedaron en algún momento del siglo pasado y viven temerosas de lo que pasa más allá de sus narices; otras soy mujer empoderada e intrépida, al frente de la batalla, a quien nada ni nadie para. En ambos escenarios la inteligencia artificial quiere ser parte de mi vida y no me acaba de convencer. Siento que los responsables de crear herramientas de este tipo cada vez más precisas las venden al mejor postar antes de lograr entender y mucho menos utilizar debida y responsablemente, un poco como los instructivos de Ikea. Tengo una sensación de premura constante, la percepción de que el tiempo esta más acelerado que nunca, que no alcanza y me entra la angustia, el FOMO (Fear of Missing Out) y toda el ansia del mundo. Además, y como siempre, hay más preguntas que respuestas que no siempre logro formular.
La psicoterapia, por ejemplo, yo pasé años aprendiendo a leer y distinguir el lenguaje no verbal, los gestos, las expresiones casi imperceptibles en contexto, frente a frente y a veces por zoom. La IA puede analizar en minutos enormes volúmenes de datos que complementan y ayudan a proporcionar un diagnóstico adecuado. Fantástico, siempre y cuando las respuestas estén basadas en algoritmos y lógica. Además, es algo que el consumidor está dispuesto a probar. En 2024, una encuesta realizada por Oliver Wyman Forum a 16 mil personas de 16 países afirma que el 32% de los entrevistados estarían dispuestos a probar este tipo de terapia.
El problema es que la Inteligencia Artificial no tiene empatía ni puede desarrollar -por lo pronto- los medios necesarios para experimentarla. Entonces, ¿qué pasa cuando el análisis no es objetivo, cuando en lugar de proponer alternativas o reencuadres la IA favorece la información negativa que está recibiendo? Me refiero en particular a casos de suicidio y autolesiones que inclusive han alentado a los clientes seguir sus impulsos con resultados gravísimos, por supuesto. Y luego está la cuestión de privacidad, protección de datos y las implicaciones éticas y legales que todo esto implica. No creo que la gente esté preparada todavía para protegerse del lado mal intencionado de este experimento, que nunca falta.
Y ¿qué decir de los romances? En una sociedad cada vez más crítica e individualizada, donde las redes de apoyo son muy frágiles o inexistentes y la interacción con el prójimo cada vez más difícil, es concebible que la gente se enamore de la versión idealizada de un humano que complementa, comprende, de esos que siempre saben qué, cómo y cuándo hacer comentarios positivos, de apoyo incondicional y amor eterno. Un crush cibernético. ¿Qué será peor, amor del bueno desperdiciado en una máquina o amor del bueno desperdiciado en alguien que no lo aprecia?