Pasar al contenido principal

¿Es la inteligencia artificial un verdadero peligro para la Psicología?

¿Es la inteligencia artificial un verdadero peligro para la Psicología?

30 de junio de 2025
Autor: Patricia Hernández Valdez 
English version

 

Introducción

En los últimos años, la inteligencia artificial (IA) ha revolucionado distintos ámbitos de la vida humana, incluyendo el campo de la salud mental. Esto ha generado inquietudes sobre su impacto en la práctica psicológica: ¿la IA representa una herramienta de apoyo o una amenaza real para la Psicología en su ejercicio cotidiano?

 

Desarrollo

La IA, definida como la capacidad de sistemas computacionales para realizar tareas que normalmente requieren inteligencia humana, se ha incorporado con rapidez en aplicaciones relacionadas con la Psicología. Chatbots, plataformas de terapia en línea, algoritmos de detección de emociones y sistemas de diagnóstico automatizado son algunos ejemplos del uso creciente de estas tecnologías. Esta tendencia ha abierto posibilidades antes impensables para ampliar la cobertura, personalizar intervenciones y generar datos clínicos a gran escala. Sin embargo, también ha desatado debates sobre su fiabilidad, su impacto ético y su influencia en la relación terapéutica.

Uno de los principales argumentos a favor del uso de IA en Psicología es su capacidad para democratizar el acceso a la salud mental. En países con pocos especialistas, las herramientas basadas en IA pueden representar una solución provisional para atender a poblaciones vulnerables. Además, al no requerir la intervención constante de un profesional humano, estas plataformas permiten una atención más inmediata, continua y económica (Fiske, Henningsen & Buyx, 2019).

No obstante, el uso de IA en Psicología no está exento de riesgos. Una de las principales preocupaciones es la deshumanización de la práctica clínica., ya que la relación terapeuta-paciente se basa en la empatía, la confianza y la interpretación compleja del lenguaje verbal y no verbal, los silencios, el contexto y las emociones. Estas variables son difíciles de codificar en un algoritmo; incluso, estudios han mostrado que los usuarios pueden experimentar sensación de vacío emocional o insatisfacción al interactuar con plataformas automáticas, lo cual compromete la eficacia terapéutica y un verdadero impacto positivo a largo plazo (Sanches et al., 2021).

Otro riesgo es el uso indebido de datos sensibles (es decir, confidenciales). Las herramientas digitales recogen información personal, psicológica y conductual que, en manos equivocadas, puede utilizarse con fines comerciales, incluso discriminatorios o delictivos. La falta de regulación clara sobre el tratamiento de estos datos compromete el principio de confidencialidad, uno de los pilares éticos de la Psicología (APA, 2017).

Desde el punto de vista del ejercicio profesional, la IA podría llegar a sustituir ciertas funciones rutinarias, como la aplicación de pruebas psicométricas o la recopilación de anamnesis. Sin embargo, esto no implica una desaparición de la Psicología, sino una transformación del rol del psicólogo. En lugar de centrarse en tareas administrativas o repetitivas, el profesional podrá enfocarse en la toma de decisiones clínicas complejas, el diseño de intervenciones especializadas y la atención personalizada, de forma tal que se pueda exponenciar la eficacia terapéutica sin comprometer el rol del profesionista.

A nivel teórico, la irrupción de la IA también invita a repensar conceptos fundamentales. Por ejemplo, ¿qué entendemos por mente, conciencia o emoción? ¿Pueden estas experiencias humanas ser reproducidas o simuladas por una máquina? La Psicología, como ciencia que estudia el comportamiento y los procesos mentales, se ve obligada entonces a dialogar con otras disciplinas como la neurociencia, la ética, la filosofía y la informática para comprender mejor los límites y alcances de la inteligencia artificial.

Con base en lo anterior, es indispensable fomentar un enfoque interdisciplinario que incluya la participación activa de psicólogos en el diseño, validación y regulación de las herramientas digitales. Esto garantiza que las soluciones tecnológicas respeten los principios fundamentales de la profesión: la dignidad humana, la autonomía, la confidencialidad, el consentimiento informado y la no maleficencia.

Por otra parte, el campo de la psicoterapia en línea, que ha crecido notablemente tras la pandemia de COVID-19, ha mostrado que la tecnología puede ser una aliada poderosa. Sin embargo, esta modalidad requiere formación específica, marcos éticos claros y un monitoreo constante de la calidad del servicio. En este sentido, la IA podría ser una herramienta complementaria para mejorar la eficiencia del tratamiento, pero nunca reemplazar la intervención humana.

Finalmente, también se debe considerar la brecha digital. Muchas personas que requieren atención psicológica no tienen acceso a tecnologías o carecen de alfabetización digital. Esto podría aumentar la desigualdad en el acceso a la salud mental si se privilegian herramientas automatizadas sin considerar el contexto socioeconómico y cultural de la población (WHO, 2022).

 

Conclusiones

La inteligencia artificial no es intrínsecamente un peligro para la Psicología, pero su incorporación acrítica y sin regulación puede generar consecuencias negativas tanto para los usuarios como para los profesionales. Lejos de ver a la IA como una amenaza, es necesario comprenderla como una herramienta que, bien utilizada, puede potenciar el trabajo psicológico y ampliar su impacto social. Esto requiere, sin embargo, un enfoque humanista, ético y centrado en la persona.

La clave está en no perder de vista la naturaleza relacional de la Psicología. La tecnología puede facilitar procesos, pero no puede reemplazar la capacidad humana de comprender, empatizar y construir vínculos. El psicólogo del futuro necesitará no solo dominar los fundamentos clínicos y éticos de su profesión, sino también comprender los alcances y limitaciones de las herramientas digitales. La integración de la IA debe hacerse con una visión crítica y reflexiva, que privilegie la calidad del cuidado y los derechos de las personas.

En definitiva, el verdadero peligro no es la tecnología, sino la falta de preparación para utilizarla con criterio, sensibilidad y responsabilidad. La Psicología está llamada a liderar esta transición, aportando una mirada compleja, interdisciplinaria y profundamente humana.

 

Referencias

  1. American Psychological Association. (2017). Ethical Principles of Psychologists and Code of Conduct. APA. 
  2. Fiske, A., Henningsen, P., & Buyx, A. (2019). Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. Journal of Medical Internet Research, 21(5), e13216. https://doi.org/10.2196/13216
  3. Sanches, P., Björk, M., Ferreira, P., & Fitzpatrick, G. (2021). "Now that I Have a Diagnosis": Privacy and Disclosure in the Context of Mental Health Technology. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1-30. https://doi.org/10.1145/3449097 
  4. World Health Organization. (2022). World Mental Health Report: Transforming Mental Health for All. WHO. https://www.who.int/publications/i/item/9789240049338 

Patricia Hernández Valdez es psicóloga, perito en psicología jurídica y bioeticista. Coordina la Maestría en Estudios de Bioética Online en la Universidad Anáhuac México. Ha sido ponente en diversos congresos internacionales y autora de publicaciones sobre bioética, salud mental y derechos humanos.


Las opiniones expresadas en este blog son responsabilidad exclusiva de sus autores y no necesariamente representan la postura oficial del CADEBI. Como institución comprometida con la inclusión y el diálogo plural, en CADEBI promovemos y difundimos una diversidad de voces y enfoques, con el convencimiento de que el intercambio respetuoso y crítico enriquece nuestra labor académica y formativa. Valoramos y alentamos todos los comentarios, respuestas o críticas constructivas que deseen compartir.

 


Más información:
Centro Anáhuac de Desarrollo Estratégico en Bioética (CADEBI)
Dr. Alejandro Sánchez Guerrero
alejandro.sanchezg@anahuac.mx