Buscar
24 de Mayo del 2025
Tecnología

IA detecta riesgos de salud mental en pacientes psiquiátricos

IA detecta riesgos de salud mental en pacientes psiquiátricos

Los grandes modelos de lenguaje, como ChatGPT, muestran un prometedor potencial para identificar riesgos relacionados con la salud mental, incluyendo la depresión y el suicidio, en pacientes que ya están bajo tratamiento psiquiátrico



Esta capacidad fue destacada en un estudio reciente publicado por Jama Open Network, donde un equipo de investigadores coreanos evaluó la eficacia de estas tecnologías en la detección temprana de señales de alerta a partir de datos proporcionados por los propios pacientes.


El análisis se centró en un grupo de 1,064 personas entre 18 y 39 años que recibían atención psiquiátrica.


Los participantes completaron diversas pruebas de autoevaluación y ejercicios de frases incompletas, una técnica que consiste en que el paciente termine oraciones abiertas con lo primero que le venga a la mente.



Este método permite captar aspectos subjetivos sobre su autopercepción y sus relaciones interpersonales, elementos clave para entender su estado emocional y mental



Para procesar esta información, los investigadores utilizaron grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro y Google Deepmind, así como modelos de incrustación de texto, que transforman las palabras en representaciones matemáticas para facilitar su análisis.


Los resultados indicaron que estas herramientas pueden reconocer patrones narrativos asociados a riesgos de salud mental, lo que abre la puerta a su uso como apoyo en la evaluación clínica.


No obstante, los autores del estudio advierten que, aunque los modelos demuestran un potencial valioso, es fundamental continuar perfeccionando tanto su precisión como su seguridad antes de considerar su implementación en entornos médicos reales.



La inteligencia artificial puede ser un complemento para identificar señales de alerta, pero no debe reemplazar la intervención profesional



En un comentario externo sobre esta investigación, Alberto Ortiz, especialista del Hospital Universitario La Paz en Madrid, destacó que los hallazgos se basan en pacientes ya diagnosticados y en tratamiento, por lo que extrapolar estos resultados a la población general todavía no es viable.


Ortiz subraya que la aplicación de la inteligencia artificial en salud mental debería centrarse en las narrativas personales, tal como se hizo en el estudio, ya que la subjetividad del paciente es un componente esencial para comprender su situación.


Además, Ortiz enfatiza que detectar riesgos y realizar un cribado es solo una parte del proceso. El tratamiento del sufrimiento psicológico requiere algo más que tecnología; implica la interacción humana y la empatía del profesional, quienes construyen un vínculo terapéutico indispensable para la recuperación.



En este sentido, la inteligencia artificial puede servir como una herramienta de apoyo, pero no sustituye la complejidad del cuidado humano en salud mental




Noticias Similares



Noticias Destacadas



Más de Meganoticias