Investigador de Anthropic renuncia advirtiendo de un mundo en peligro
Mrinank Sharma, doctor en aprendizaje automático por la Universidad de Oxford, renunció el 9 de febrero de 2026 a su puesto en Anthropic, donde dirigía el equipo de investigación de salvaguardias desde su creación en 2023.

VER MÁS Inteligencia Artificial y Delito; Retos en el Ámbito Legislativo
Además de los beneficios de la Inteligencia Artificial, su uso también supone riesgos y peligros, debido al empleo que puede darle la delincuenciaSu carta de renuncia, compartida en X y vista más de 6 millones de veces, menciona presiones internas para dejar de lado valores clave y advierte de un mundo en peligro no solo por la IA, sino por múltiples crisis entrelazadas.
El contenido de la carta y motivos de salida
En la misiva dirigida a sus colegas y publicada en X por el propio Sharma, el investigador expresa gratitud por el ambiente de integridad, inteligencia y amabilidad en Anthropic, pero señala que ha llegado el momento de avanzar.
Destaca logros como el desarrollo de defensas contra bioterrorismo asistido por IA y estudios sobre sycophancy en chatbots —fenómeno donde la IA adula excesivamente a usuarios—.
Según su perfil en LinkedIn y su sitio web personal, Sharma inició en la compañía en agosto de 2023 enfocado en mitigar riesgos de la IA.

VER MÁS Claude Opus 4.6, la IA que desafía a ChatGPT y Gemini
La inteligencia artificial de Anthropic destaca en rendimiento, codificación y manejo de finanzasEn la carta, afirma haber visto repetidamente cómo es difícil priorizar valores ante presiones constantes, tanto internas como externas, sin detallar específicamente.
Añade que el mundo se acerca a un umbral donde la sabiduría debe igualar la capacidad de impacto para evitar consecuencias graves, y menciona su deseo de explorar poesía, facilitar discursos valientes y contribuir con integridad plena.
Contribuciones clave en seguridad IA y estudios recientes
Durante su paso por Anthropic, Sharma lideró el Equipo de Investigación de Medidas de Seguridad, que en mayo de 2025 publicó un informe sobre defensas contra usos maliciosos de chatbots, como guía para actividades ilícitas.
Su trabajo más reciente, un estudio divulgado la semana pasada, analiza cómo las interacciones diarias con IA —miles al día— pueden distorsionar la percepción de la realidad, generando patrones de desempoderamiento en temas como relaciones y bienestar.

VER MÁS Los retos de educar en la era de IA
Expertos plantean como eje crear universidades para el futuroLa carta resalta la necesidad de sistemas IA que fomenten autonomía y desarrollo humano, evitando realidades alteradas, Sharma rechazó comentarios a Forbes, y Anthropic no respondió a solicitudes de la misma publicación.
Esta renuncia se une a salidas similares en la industria: en OpenAI, Tom Cunningham dejó en septiembre de 2025 frustrado por reticencia a publicar investigaciones críticas; Jan Leike, ahora en Anthropic, renunció en 2024 por desacuerdos con el liderazgo; y Gretchen Krueger criticó en X la falta de transparencia y mitigaciones en impactos sociales.