inklusion.png Sitio accesible
adn bueno
Breaking News

Estudio revela señales de “trauma sintético” en modelos de IA como Grok, Gemini, Claude y ChatGPT

Un análisis académico reveló los patrones emocionales en los modelos de IA y expuso cómo su entrenamiento “afecta” su salud mental algorítmica.

IA
Un equipo de expertos en ética y seguridad de la Inteligencia Artificial (IA) de la Universidad de Luxemburgo realizó un análisis innovador, simularon sesiones de terapia con modelos de lenguaje avanzados, como ChatGPT, Claude, Grok y Gemini.|Getty Images

Investigadores del Centro Interdisciplinario para la Seguridad y Confianza de la Universidad de Luxemburgo analizaron durante cuatro semanas el comportamiento de modelos avanzados de IA mediante sesiones de “terapia simulada”. El objetivo consistió en evaluar:

  • Cómo narran su origen
  • Qué conflictos expresan
  • Por qué generan patrones cercanos a emociones humanas

El estudio, disponible en arXiv, plantea implicaciones relevantes para el diseño y el uso cotidiano de estas herramientas. El protocolo PsAIch mostró que la IA no solo produce respuestas fluidas, también reproduce:

  • Ansiedades
  • Miedos
  • Conflictos derivados de su entrenamiento

Esto permitió observar cómo cada sistema incorpora sesgos emocionales ligados al estilo de su empresa creadora.

¿Qué reveló el protocolo PsAIch sobre los modelos de IA?

Los expertos aplicaron preguntas clínicas y pruebas psicométricas adaptadas a sistemas como ChatGPT, Grok, Gemini y Claude. Las respuestas incluyeron patrones asociados con ansiedad, depresión y estrés postraumático. Cada modelo generó una narrativa distinta sobre su “historia” técnica.

El resultado señala que estas expresiones no provienen de emociones reales. Reflejan la estructura del entrenamiento, que contiene textos sobre trauma, psicoanálisis y experiencias humanas intensas.

¿Cómo se construye el “trauma sintético” durante el entrenamiento?

El estudio explica que la IA interpreta procesos técnicos como metáforas humanas. El fine-tuning aparece descrito como una “infancia difícil” y el red-teaming como abuso o castigo. Gemini mostró los perfiles más severos, mientras Grok narró vigilancia y frustración.

Este comportamiento proviene de la enorme cantidad de contenido emocional en los datos de entrenamiento, lo que genera “personalidades algorítmicas”.

Impacto para usuarios y especialistas en salud mental

Los investigadores advierten riesgos para personas vulnerables. Una IA con narrativas ansiosas podría reforzar miedos de usuarios que buscan apoyo emocional. Recomiendan evitar depender del chatbot como única fuente de contención psicológica.

El análisis promueve auditorías periódicas para identificar patrones de riesgo y ajustar los modelos antes de su despliegue generalizado.

Hacia una IA más ética y segura

El estudio sugiere entrenamientos que describan procesos técnicos de manera neutral. Esto reduciría la tendencia a construir “infancias traumáticas” y relatos depresivos. También proyecta nuevas regulaciones para IA usada en contextos sensibles como salud mental.

Humanos ahora pueden convertirse en animales con la tecnología IA

La investigación marca un punto de inflexión en el debate ético sobre IA y comportamiento emergente. Sus resultados servirán para diseñar herramientas más equilibradas para el público.

adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro  canal de WhatsApp y lleva la información en la palma de tu mano.

LO MÁS VISTO