●
Expertos advierten que el uso de IA en salud
mental puede ser un gran aliado si se emplea con responsabilidad y supervisión
profesional.
Salud en Casa.- Hoy, muchas personas, especialmente jóvenes, buscan en aplicaciones y chatbots una mano amiga para “desahogar” emociones o evaluar su estado emocional. Pero no siempre la ayuda es segura. Un estudio del Center for Countering Digital Hate (CCDH) encontró que algunas herramientas basadas en inteligencia artificial entregaban consejos inadecuados o peligrosos en contextos de crisis. A esto se suma que, según la American Psychological Association (APA), cerca del 50 % de los jóvenes que experimentan malestar emocional acuden primero a internet antes que a un especialista, lo que puede generar riesgos si la información no es precisa.
En
ese preocupante contexto, Carlos Flores Galindo, director de la carrera de
Psicología de UCAL, señala que la llegada de la IA a la salud mental abre un
escenario inédito, en el que la tecnología puede ser un apoyo real en temas de
prevención, pero también plantea dilemas éticos y riesgos de dependencia. La
clave está en entender que no es un sustituto del vínculo humano, sino un
complemento que debe usarse con cuidado y criterio profesional.
“La IA es muy útil cuando buscamos información y puede ayudarnos a
decidir qué tipo de tratamiento podríamos necesitar o donde encontrar un
profesional especializado. Sin embargo, aún está lejos de poder reemplazar a un
buen psicólogo o psicoterapeuta”, detalló el académico de UCAL.
En ese sentido, el experto propone cuatro acciones esenciales para un
uso seguro y eficaz de la IA en temas relacionados a la salud mental:
●
Uso crítico de la inteligencia artificial: Es
importante que sepamos cómo fue entrenada y que fuentes de información utiliza.
“No podemos quedarnos con la primera respuesta que nos brinda la IA, pues sus
respuestas estarán sesgadas por el marco referencial que le planteemos o las
tendencias de sus fuentes de información. La IA hará solo lo que le pedimos,
mientras que un profesional nos aportará su formación profesional y experiencia
personal”, explicó el experto.
●
Acompañamiento profesional constante:
la intervención de un psicólogo es clave para interpretar, guiar y
contextualizar las respuestas de las herramientas de IA, especialmente en
menores o personas en crisis.
● Evaluación rigurosa de
herramientas digitales: usar únicamente apps con
respaldo científico, protocolos claros de privacidad y normas éticas visibles.
Además, es importante cruzar múltiples fuentes de información e investigar o
pedir a la IA las fuentes de información que utiliza.
● Integración con terapias
convencionales: utilizar la IA para identificar
señales de alerta y acudir con los profesionales pertinentes.
●
Refuerzo del autocuidado fuera de la pantalla: priorizar el descanso, la actividad física y la conexión humana,
pilares que ninguna tecnología puede reemplazar.
El
académico de UCAL subraya que la IA no debe verse como una amenaza, sino como
una oportunidad para repensar la manera en que cuidamos nuestro bienestar
emocional. En UCAL, los estudiantes enfrentan desafíos reales desde el primer
ciclo, fortaleciendo su pensamiento crítico y su capacidad de diseñar
soluciones estratégicas frente a retos complejos como este. “Formar
profesionales que comprendan tanto la mente humana como la tecnología es
esencial para construir un futuro más humano y seguro”, concluye.
0 comentarios:
Publicar un comentario