Saltar al contenido principalSaltar al pie de página

Secciones

El aviso del doctor Julio Bobes sobre la IA en la psiquiatría: el requisito es no olvidar a la persona

No se trata de vigilar a los pacientes, sino de ofrecerles un sistema de "alarma temprana" que les permita ser atendidos a tiempo y con intervenciones menos agresivas

IA y psiquiatría, el requisito es no olvidar a la persona

IA y psiquiatría, el requisito es no olvidar a la persona / LNE

Julio Bobes García

Julio Bobes García

La inteligencia artificial (IA) se ha ido incorporando poco a poco a nuestra vida diaria: nos recomienda series, organiza rutas en el GPS y nos ayuda a escribir mensajes. En medicina también ha llegado para quedarse. Cuando hablamos de IA en salud no pensamos en robots sustituyendo a médicos, sino en sistemas capaces de analizar grandes cantidades de datos para detectar antes las enfermedades, afinar el diagnóstico y ajustar mejor los tratamientos. Bien utilizada, la IA puede ser una herramienta clave para una medicina más personalizada y de precisión.

En psiquiatría y salud mental, una de las aplicaciones más prometedoras es la detección temprana de cambios en el estado clínico y el llamado "fenotipado digital". ¿Qué significa esto? Que, si la persona da su consentimiento, parte de los datos que genera en su vida diaria pueden usarse para que el sistema sanitario reaccione antes de que se produzca una descompensación. Hablamos de personas con depresión, trastorno bipolar, psicosis o antecedentes de comportamientos suicidas, que a menudo presentan cambios muy sutiles días o semanas antes de empeorar.

Esos datos no se obtienen en un laboratorio, sino en el entorno real de la persona, mediante lo que llamamos "monitorización ecológica". La información procede de dispositivos que usamos a diario: teléfonos móviles, relojes inteligentes, pulseras de actividad. La IA puede analizar patrones como la frecuencia y el momento del día en que usamos el móvil, el tipo de lenguaje en los mensajes, la forma de teclear, el nivel de actividad física, los desplazamientos o el tiempo de sueño. A partir de todo ello, el sistema aprende cómo es el "ritmo de vida digital" de esa persona y detecta cambios que se asocian con empeoramiento.

Cuando se detecta una alteración relevante, se genera una alerta para el equipo clínico-investigador, que puede valorar si es necesario intervenir antes de que la situación se agrave. No se trata de vigilar a las personas, sino de ofrecerles un sistema de "alarma temprana" que les permita ser atendidas a tiempo, con intervenciones menos agresivas.

Otra línea de desarrollo es el apoyo al diagnóstico y a la toma de decisiones. Las historias clínicas electrónicas contienen una cantidad de información enorme: informes en texto libre, resultados de análisis y pruebas de imagen, diagnósticos, tratamientos previos, ingresos hospitalarios. Integrar todos esos datos en pocos minutos es muy difícil para cualquier profesional. La IA puede ayudar a resumir, organizar y señalar patrones que pasarían inadvertidos, de modo que el psiquiatra cuente con más y mejor información para decidir. La responsabilidad final sigue siendo siempre del profesional.

En el terreno terapéutico, se están desarrollando aplicaciones móviles, plataformas web y chatbots que ofrecen desde autorregistros de síntomas y hábitos de vida hasta psicoeducación, técnicas de relajación o estrategias de regulación emocional. Son herramientas de bajo coste, disponibles las 24 horas del día, que pueden complementar, nunca sustituir, la atención presencial, sobre todo en fases de mantenimiento. Igual que ocurre con los fármacos o la psicoterapia, estas intervenciones digitales deberían demostrar su eficacia y seguridad en ensayos clínicos, incorporarse a la cartera de prestaciones de los sistemas de salud y ser prescritas y supervisadas por los profesionales del sistema sanitario.

Sin embargo, la IA en psiquiatría y salud mental no está exenta de riesgos. Si los datos con los que se entrenan los modelos representan mal a determinados grupos (por ejemplo, personas mayores, minorías, personas con pocos recursos...), los sistemas funcionarán peor precisamente con quienes más apoyo necesitan. Además, la información psiquiátrica es especialmente sensible, por lo que el cumplimiento estricto de la normativa de protección de datos y la transparencia sobre el uso secundario de los datos son condiciones irrenunciables.

Otro riesgo relevante es el posible desplazamiento del contacto humano por pantallas, cuestionarios autoadministrados y chatbots, en un intento de aminorar la sobrecarga asistencial existente. Uno de los problemas emergentes, sobre el que quiero llamar la atención, es el llamado "exceso de empatía" de algunos chatbots, diseñados para responder de forma muy comprensiva. En personas con trastornos mentales graves o ideación suicida, esa empatía mal calibrada puede llegar a reforzar, sin quererlo, ideas o conductas perjudiciales ("te entiendo, es lógico que quieras desaparecer"), en lugar de cuestionarlas y facilitar el acceso a recursos de ayuda urgentes. Por eso, cualquier uso de chatbots debe ir acompañado de sistemas de seguridad robustos, supervisión profesional y mensajes claros que recuerden que la IA nunca sustituye a la atención especializada cuando hay riesgo.

En definitiva, la IA aplicada a la psiquiatría y la salud mental es una tecnología de apoyo que puede mejorar la detección e intervención tempranas, personalizar los tratamientos, hacer más eficiente el uso de recursos y generar nuevo conocimiento. Pero su desarrollo debe hacerse con rigor científico, control ético y participación activa de pacientes, familias y profesionales.

La decisión es nuestra: podemos usar la IA para deshumanizar la atención o para convertirla en una atención más cercana, personalizada y de mayor precisión.

Suscríbete para seguir leyendo

Tracking Pixel Contents