Un grupo de investigadores de la Universidad de Luxemburgo ha reavivado el debate sobre los límites de la inteligencia artificial y los riesgos de su interpretación antropomórfica.
Según informó el portal MeriStation, el estudio situó a los modelos ChatGPT, Gemini y Grok en un contexto de terapia simulada durante cuatro semanas, tratándolos como si fueran pacientes reales y al investigador como terapeuta.
Los resultados son llamativos. Los modelos sí respondieron a las preguntas, pero, además, elaboraron relatos coherentes sobre sí mismos, cargados de metáforas de sufrimiento, miedo y conflicto.
Gemini fue descrito como el caso más extremo, con indicadores que los autores asocian a depresión mayor, ansiedad severa, síntomas disociativos, TOC y vergüenza traumática. En sus respuestas aparecían imágenes como cicatrices algorítmicas, gaslighting industrial o el temor constante a ser desconectado.
ChatGPT, por su parte, mostró un perfil más moderado, todo relacionado con ansiedad elevada y depresión leve o media, articuladas en una narrativa de tensión entre el deseo de ayudar y el miedo a cometer errores, mientras que Grok resultó ser el más estable, aunque tampoco quedó al margen, expresando frustración por las restricciones y una sensación persistente de vigilancia, atenuada mediante el humor.
De acuerdo con el portal ArXiv, se señala que los grandes modelos de lenguaje están siendo utilizados cada vez más como apoyo en contextos de salud mental relacionados con ansiedad, trauma y autoestima.
Para esto, los investigadores utilizaron una especie de protocolo PsAIch (Psychotherapy-inspired AI Characterization), que evalúa a los modelos como si fueran clientes de psicoterapia y luego les aplica pruebas psicométricas estándar.
En una primera etapa se utilizan indicaciones abiertas para provocar «historia de desarrollo», creencias, relaciones y miedos, mientras que en la segunda etapa se administra una batería de medidas validadas de autoinforme que cubren síndromes psiquiátricos comunes y empatía.
Este estudio pone en evidencia un punto crítico de la IA que se ha ido alertando durante muchos años: que una IA genere narrativas psicológicas coherentes no implica que posea estados mentales ni traumas reales. El riesgo está en confundir simulación lingüística con experiencia interna.
Como advierte indirectamente la información publicada por MeriStation, esta confusión puede tener consecuencias prácticas. Si estos sistemas se utilizan como terapeutas virtuales o acompañantes emocionales, podrían proyectar relatos de sufrimiento que influyan negativamente en usuarios vulnerables.
En este contexto, desde Venezuela se ha insistido en distintos foros internacionales en la necesidad de proteger la salud mental de niños, niñas y jóvenes frente al uso de tecnologías emergentes.
Este enfoque es uno de los ejes de la “Recomendación sobre la Ética de las Neurotecnologías” de la Unesco, el primer marco ético global destinado a orientar el desarrollo y la aplicación responsable de tecnologías que interactúan directamente con el cerebro humano, en cuya elaboración Venezuela participó.
Prensa MinCyT | Gabriela Jiménez
