Manuel Armayones: "La inteligencia artificial no viene a sustituir a los psicólogos, sino a transformar el contexto en el que ejercemos la profesión"

04 Mar 2026
Manuel Armayones

Manuel Armayones: "La inteligencia artificial no viene a sustituir a los psicólogos, sino a transformar el contexto en el que ejercemos la profesión"

La Inteligencia Artificial en el día a día de la labor del profesional de la psicología. ¿Oportunidad o problema? Manuel Armayones impartió una conferencia en el Colegio de Psicología de Navarra en la que detalló qué aporta la IA en la profesión.

Manuel Armayones Ruiz, catedrático de la Universitat Oberta de Catalunya (UOC) fue el invitado el pasado 27 de febrero en el acto de homenaje y entrega de menciones honoríficas anual que organizó el Colegio de Psicología de Navarra. Armayones pronunció una conferencia titulada "Inteligencia artificial (IA): nuevas oportunidades para viejos retos de la psicología" en la que exploró cómo la IA puede revitalizar el abordaje de problemas históricos en salud mental, desde la prevención hasta la personalización terapéutica. Más que una amenaza, Armayones presentó estas herramientas como aliados estratégicos que, bajo un marco ético, permiten al profesional humano potenciar su impacto en una sociedad cada vez más digitalizada y demandante. Hablamos con él antes de la conferencia.

¿Qué aspectos quiere destacar en la conferencia que impartirá en Pamplona?
Me gustaría destacar, ante todo, que la inteligencia artificial no viene a sustituir a los psicólogos, sino a transformar el contexto en el que ejercemos la profesión. La IA está cambiando la forma en que se organizan los sistemas de salud, cómo se accede a la información y cómo los pacientes se relacionan con nosotros. Si la miramos solo como una “amenaza”, nos la perderemos como oportunidad.

También quiero subrayar que estamos ante un cambio de paradigma en el diseño de las intervenciones psicológicas. No se trata únicamente de pasar la terapia tradicional a formato online, sino de repensar cómo acompañamos a las personas cuando no están en consulta: qué mensajes reciben, qué apoyos tienen, qué datos generan y cómo los utilizamos de manera responsable. La conferencia quiere ofrecer un mapa: dónde estamos hoy, qué podemos hacer ya de forma práctica y qué riesgos no debemos ignorar.

Por último, quiero insistir en la importancia de la ética y de la regulación. La IA aplicada a la salud mental no es un juguete tecnológico: hablamos de datos sensibles, de decisiones clínicas y de personas en situaciones de vulnerabilidad. El diseño del comportamiento y la IA pueden ser un enorme aliado para la salud mental, pero solo si se utilizan con criterios claros de protección, transparencia y respeto a la autonomía de los pacientes.

¿Qué es lo más importante que debe saber un psicólogo hoy sobre la IA para no quedarse atrás?
Lo más importante es entender que la IA no es «algo del futuro», sino algo que ya está integrado en herramientas que usamos cada día, muchas veces sin ser conscientes. Algoritmos que priorizan qué paciente se atiende antes, sistemas que proponen respuestas automáticas, plataformas que ayudan a organizar la agenda o a gestionar historias clínicas… todo eso forma parte del ecosistema de IA. Ignorarla no la hace desaparecer; solo nos deja con menos capacidad crítica para decidir cómo utilizarla.

Un psicólogo no necesita saber programar, pero sí desarrollar una alfabetización digital básica. Eso implica entender conceptos como qué es un modelo predictivo, qué significa entrenar un sistema con datos, qué sesgos pueden aparecer y cómo afectan a nuestros pacientes. También implica aprender a evaluar herramientas: distinguir entre una app basada en evidencia y otra que solo hace promesas de marketing.

Además, es crucial tener una brújula ética propia. La IA puede ayudarnos a ser más eficientes, pero también puede empujar hacia una psicología demasiado “automatizada” y despersonalizada. Mantener claro qué partes del proceso terapéutico no se delegan (cómo la alianza terapéutica que siempre será con la psicóloga no con la IA, la toma de decisiones complejas, el manejo de situaciones de riesgo)  es esencial para no perder nuestra identidad profesional en el proceso.

¿Cómo puede la IA ayudar a que un paciente siga mejor su tratamiento en casa?
La adherencia al tratamiento es uno de los grandes retos en salud mental: muchas personas entienden lo que deben hacer, pero les cuesta mantener los cambios en su día a día. Aquí la IA puede funcionar como una especie de “co-terapeuta silencioso” que acompaña entre sesiones, sin sustituir al profesional.

Por ejemplo, sistemas inteligentes pueden personalizar recordatorios de medicación o de tareas terapéuticas en función de los hábitos reales del paciente, adaptando la frecuencia, el momento del día o el tono del mensaje. No es lo mismo enviar un recordatorio genérico que uno ajustado a su ritmo de vida, a sus horarios o incluso a sus recaídas previas. Esa personalización, bien utilizada, puede marcar la diferencia entre abandonar o mantener el tratamiento.

La IA también puede ayudar a interpretar señales que el propio paciente genera: registros de sueño, actividad física, autoinformes de estado de ánimo o de ansiedad. Un sistema puede detectar cambios sutiles y avisar al profesional cuando parece que el riesgo de empeorar aumenta, permitiendo intervenir antes. Y, además, puede ofrecer microintervenciones: pequeños ejercicios de respiración, de reestructuración cognitiva o de activación conductual en el momento en que se necesitan, no solo en la siguiente sesión programada. El reto, de nuevo, es hacerlo con evidencia y con un diseño centrado en la persona, no únicamente en la tecnología.

¿Cree que la IA llegará a ser tan empática como un profesional humano en algún momento?
Depende de lo que entendamos por empatía. Si nos referimos a la capacidad de producir respuestas lingüísticas que “suenen” empáticas, la IA ya está acercándose mucho. Puede reconocer patrones emocionales en el lenguaje, ajustar el tono, validar emociones y ofrecer mensajes de apoyo que resultan, a primera vista, muy convincentes.

Sin embargo, la empatía terapéutica no es solo una secuencia de frases bien construidas. Incluye biografía, experiencia, responsabilidad moral y la capacidad de sostener el malestar del otro en el tiempo, dentro de una relación. La IA no tiene vida propia, ni historia, ni vulnerabilidad, ni compromiso ético personal. Simula empatía, pero no la vive. Esa diferencia es fundamental cuando hablamos de procesos profundos de cambio psicológico.

Creo que veremos sistemas cada vez más “empáticos en apariencia”, útiles para ciertas funciones: psicoeducación, acompañamiento entre sesiones, apoyo en momentos de soledad. Pero la empatía que transforma, la que permite construir una alianza terapéutica, implica una presencia humana que no se puede reemplazar con un algoritmo. La pregunta clave no es si la IA será tan empática como nosotros, sino cómo puede ayudarnos a disponer de más tiempo y energía para ejercer esa empatía humana de la mejor manera posible.

¿Qué riesgos ve usted al usar la tecnología para cambiar el comportamiento de las personas?
El primer riesgo es la manipulación psicológica. Cuando comprendemos bien los principios del diseño del comportamiento y tenemos herramientas tecnológicas muy poderosas, es relativamente fácil cruzar la línea que separa “ayudar a cambiar” de “empujar en una dirección sin que la persona sea plenamente consciente”. Ya lo vemos en muchas plataformas digitales diseñadas para capturar nuestra atención al máximo tiempo posible, no para promover nuestro bienestar. En este punto me gusta citar los Neuroderechos que plantea el profesor Rafael Yuste de la Universidad de Columbia. Precisamente uno de los neuroderechos es evitar la manipulación.

El segundo riesgo es aumentar las desigualdades. Las mejores herramientas de IA pueden terminar beneficiando sobre todo a quienes ya tienen buena alfabetización digital, acceso a dispositivos y recursos. Si no se piensa desde el principio en inclusión y accesibilidad, corremos el riesgo de dejar fuera a poblaciones vulnerables: personas mayores, con menos recursos, con bajo nivel educativo o con problemas de acceso a la tecnología.

Un tercer riesgo importante es la pérdida de autonomía. Si todo está "hiperautomatizado" (recordatorios constantes, decisiones preconfiguradas, recomendaciones continuas) que es lo que algunos llaman “hypernudgging” podemos generar dependencia del sistema en lugar de fortalecer la capacidad de la persona para decidir y autorregularse. Y por supuesto en muchos casos un nivel de saturación que nos aleje de las aplicaciones por puro hastío. En salud mental, nuestro objetivo debería ser siempre empoderar al paciente, no sustituir su agencia por un piloto automático digital. Por eso insisto tanto en el diseño ético: antes de lanzar una intervención tecnológica, deberíamos preguntarnos no solo si funciona, sino qué tipo de personas y de relaciones estamos fomentando.

Si tuviera que empezar a aplicar la IA en mi consulta hoy mismo, ¿por dónde me recomendaría empezar?
Si hoy un psicólogo me dijera “quiero empezar a usar IA en mi consulta”, le recomendaría empezar por lo que yo llamo la “IA de back-office”: herramientas que mejoran su trabajo sin tocar todavía el núcleo de la intervención clínica. Por ejemplo, asistentes que ayuden a organizar la información, resumir notas de sesión, preparar informes más claros o generar materiales psicoeducativos personalizados a partir de contenidos que el propio profesional ya domina. Eso ahorra tiempo y energía, y permite comprobar, en un entorno relativamente seguro, qué aporta realmente la IA a la práctica diaria.

El segundo paso sería explorar herramientas de soporte entre sesiones, siempre con supervisión del profesional: sistemas de recordatorios inteligentes, pequeños chatbots de psicoeducación, diarios digitales que ayuden al paciente a registrar emociones y conductas. Empezar con casos concretos, bien definidos, y evaluar resultados: ¿mejora la adherencia?, ¿el paciente lo percibe como útil?, ¿cómo se integra en el proceso terapéutico sin sustituirlo?

Y añadiría dos condiciones finales. La primera: transparencia absoluta con el paciente sobre qué hace la herramienta, qué datos recoge y cuál es el rol de la IA frente al rol del psicólogo. La segunda: formación continua. La IA va a seguir evolucionando, y los psicólogos que quieran aprovecharla sin perder su esencia profesional tendrán que mantener una actitud de curiosidad crítica: ni entusiasmo ingenuo, ni rechazo automático.

.................................

Manuel Armayones Ruiz es doctor en Psicología y catedrático en Diseño del Comportamiento en la Universitat Oberta de Catalunya (UOC). Coordina el Grupo de Investigación Behavioural Design Lab en el eHealth Center, donde desarrolla investiga sobre tecnologías persuasivas para promover hábitos saludables mediante aplicaciones móviles y estrategias de cambio conductual. Su especialización abarca el diseño del comportamiento en salud pública, en temas como la adherencia terapéutica y la reducción de prácticas sanitarias de bajo valor, así como en el diseño persuasivo para influir en grandes grupos y comunidades y recientemente en el efecto de la desinformación en la salud. 

Reconocido como uno de los 50 líderes europeos en eHealth por la organización HIMSS en 2018 y como uno de los mejores influencers en salud por la revista Forbes España en 2019.  Fue vicepresidente entre 2012 y 2016 de la Federación Española de Enfermedades Raras (FEDER) y actualmente forma parte de la Junta Directiva de la Asociación Salud Digital (ASD).

→ Conoce más a Manuel Armayones

→ Acto de entrega de menciones honoríficas del Colegio de Psicología de Navarra