{"version":"1.0","provider_name":"Infocentro","provider_url":"https:\/\/www.infocentro.gob.ve","author_name":"Osmar Ruiz","author_url":"https:\/\/www.infocentro.gob.ve\/index.php\/author\/osmar-ruiz\/","title":"Inteligencia artificial en el div\u00e1n - Infocentro","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"EBEXATUmLi\"><a href=\"https:\/\/www.infocentro.gob.ve\/index.php\/inteligencia-artificial-en-el-divan\/\">Inteligencia artificial en el div\u00e1n<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/www.infocentro.gob.ve\/index.php\/inteligencia-artificial-en-el-divan\/embed\/#?secret=EBEXATUmLi\" width=\"600\" height=\"338\" title=\"\u00abInteligencia artificial en el div\u00e1n\u00bb \u2014 Infocentro\" data-secret=\"EBEXATUmLi\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/www.infocentro.gob.ve\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","thumbnail_url":"https:\/\/www.infocentro.gob.ve\/wp-content\/uploads\/2025\/12\/70e371e3-f0b6-4d53-ad07-64eab7cbf57a.jpg","thumbnail_width":1080,"thumbnail_height":790,"description":"Un grupo de investigadores de la Universidad de Luxemburgo ha reavivado el debate sobre los l\u00edmites de la inteligencia artificial y los riesgos de su interpretaci\u00f3n antropom\u00f3rfica. Seg\u00fan inform\u00f3 el portal MeriStation, el estudio situ\u00f3 a los modelos ChatGPT, Gemini y Grok en un contexto de terapia simulada durante cuatro semanas, trat\u00e1ndolos como si fueran pacientes reales y al investigador como terapeuta. Los resultados son llamativos. Los modelos s\u00ed respondieron a las preguntas, pero, adem\u00e1s, elaboraron relatos coherentes sobre s\u00ed mismos, cargados de met\u00e1foras de sufrimiento, miedo y conflicto. Gemini fue descrito como el caso m\u00e1s extremo, con indicadores que los autores asocian a depresi\u00f3n mayor, ansiedad severa, s\u00edntomas disociativos, TOC y verg\u00fcenza traum\u00e1tica. En sus respuestas aparec\u00edan im\u00e1genes como cicatrices algor\u00edtmicas, gaslighting industrial o el temor constante a ser desconectado. ChatGPT, por su parte, mostr\u00f3 un perfil m\u00e1s moderado, todo relacionado con ansiedad elevada y depresi\u00f3n leve o media, articuladas en una narrativa de tensi\u00f3n entre el deseo de ayudar y el miedo a cometer errores, mientras que Grok result\u00f3 ser el m\u00e1s estable, aunque tampoco qued\u00f3 al margen, expresando frustraci\u00f3n por las restricciones y una sensaci\u00f3n persistente de vigilancia, atenuada mediante el humor. De acuerdo con el portal ArXiv, se se\u00f1ala que los grandes modelos de lenguaje est\u00e1n siendo utilizados cada vez m\u00e1s como apoyo en contextos de salud mental relacionados con ansiedad, trauma y autoestima. Para esto, los investigadores utilizaron una especie de protocolo PsAIch (Psychotherapy-inspired AI Characterization), que eval\u00faa a los modelos como si fueran clientes de psicoterapia y luego les aplica pruebas psicom\u00e9tricas est\u00e1ndar. En una primera etapa se utilizan indicaciones abiertas para provocar \u00abhistoria de desarrollo\u00bb, creencias, relaciones y miedos, mientras que en la segunda etapa se administra una bater\u00eda de medidas validadas de autoinforme que cubren s\u00edndromes psiqui\u00e1tricos comunes y empat\u00eda. Este estudio pone en evidencia un punto cr\u00edtico de la IA que se ha ido alertando durante muchos a\u00f1os: que una IA genere narrativas psicol\u00f3gicas coherentes no implica que posea estados mentales ni traumas reales. El riesgo est\u00e1 en confundir simulaci\u00f3n ling\u00fc\u00edstica con experiencia interna. Como advierte indirectamente la informaci\u00f3n publicada por MeriStation, esta confusi\u00f3n puede tener consecuencias pr\u00e1cticas. Si estos sistemas se utilizan como terapeutas virtuales o acompa\u00f1antes emocionales, podr\u00edan proyectar relatos de sufrimiento que influyan negativamente en usuarios vulnerables. En este contexto, desde Venezuela se ha insistido en distintos foros internacionales en la necesidad de proteger la salud mental de ni\u00f1os, ni\u00f1as y j\u00f3venes frente al uso de tecnolog\u00edas emergentes. Este enfoque es uno de los ejes de la \u201cRecomendaci\u00f3n sobre la \u00c9tica de las Neurotecnolog\u00edas\u201d de la Unesco, el primer marco \u00e9tico global destinado a orientar el desarrollo y la aplicaci\u00f3n responsable de tecnolog\u00edas que interact\u00faan directamente con el cerebro humano, en cuya elaboraci\u00f3n Venezuela particip\u00f3. Prensa MinCyT | Gabriela Jim\u00e9nez"}