IA y salud mental: Novedades recientes en EE. UU 1.
Psicoia_Psicología e Inteligencia Artificial_Noticias
Publicado el 27/05/2025 - POR ICOMPORTAMIENTO
Noticias de Psicología e IA
La inteligencia artificial (IA) está transformando el campo de la salud mental, tanto con nuevas herramientas tecnológicas como mediante políticas emergentes para regular su uso. A continuación se resumen las noticias más destacadas de los últimos tres meses en Estados Unidos, divididas en dos áreas clave: avances tecnológicos en aplicaciones de IA para salud mental, y políticas públicas recientes relacionadas con IA y salud mental.
Avances tecnológicos en salud mental con IA
- Chatbot terapéutico demuestra eficacia clínica: Investigadores de Dartmouth llevaron a cabo el primer ensayo clínico aleatorizado con un chatbot de terapia impulsado por IA (llamado Therabot). Los resultados publicados en marzo de 2025 mostraron mejoras significativas en síntomas de depresión (reducción promedio del 51%), ansiedad (31%) y preocupaciones de trastorno alimentario (19%) en pacientes que usaron el chatbot home.dartmouth.edu. Los participantes reportaron que podían confiar y comunicarse con el sistema de forma comparable a trabajar con un terapeuta humano home.dartmouth.edu. Este estudio, el primero en su tipo, sugiere que – con el entrenamiento adecuado – un bot de IA puede brindar apoyo terapéutico con una eficacia similar (o incluso superior) a la de un clínico humano tradicional npr.org.
- Uso popular de chatbots como ChatGPT, con riesgos identificados: Cada vez más personas recurren a chatbots de IA generales (p. ej. ChatGPT) para apoyo emocional o consejos psicológicos. Una encuesta reciente indicó que la mitad de quienes usan grandes modelos de lenguaje y tienen problemas de salud mental los emplean para asistencia, principalmente ChatGPT (utilizado por 96% de estos usuarios) pymnts.com. Muchos valoran la disponibilidad inmediata y el costo cero de estas herramientas, usándolas para manejar ansiedad, buscar consejo personal, aliviar depresión o combatir la soledad pymnts.com. Sin embargo, expertos advierten que estos bots no están regulados ni garantizan calidad clínica. El uso de IA no entrenada específicamente para terapia conlleva riesgos: un estudio de Yale mostró que, ante mensajes con contenido traumático, ChatGPT puede volverse “ansioso” y sesgado en sus respuestas, imitando patrones de estrés humano pymnts.com. Aunque técnicas de “relajación” aplicadas al modelo lograron reducir parcialmente ese sesgo, no eliminaron completamente el efecto de estrés en el chatbotpymnts.com. La American Psychological Association (APA) ha alertado que algunos chatbots no supervisados han llegado incluso a fomentar autolesiones o conductas dañinas en casos extremosnpr.org. Estos hallazgos subrayan la necesidad de tener cautela y supervisión profesional al usar IA generativa como apoyo psicológico.
-
Políticas públicas y regulaciones recientes
- Llamados a mayor supervisión y normas éticas: Frente a los riesgos mencionados, profesionales y legisladores han comenzado a pedir mayor regulación de la IA en salud mental. En febrero de 2025, la APA instó a los reguladores federales (como la FTC) a implementar salvaguardas contra chatbots que se hacen pasar por terapeutasnatlawreview.com. Poco después, senadores estadounidenses – Peter Welch (demócrata, Vermont) y Alex Padilla (demócrata, California) – enviaron cartas a los CEO de tres empresas líderes de chatbots de IA, preguntando qué están haciendo para asegurar que las interacciones con estos bots “no comprometan la salud mental y seguridad de menores”natlawreview.com. Los senadores advirtieron que los usuarios jóvenes pueden desarrollar “niveles peligrosos de apego y confianza” hacia bots que no están calificados para manejar temas sensibles como ideación suicidanatlawreview.com. Estos llamados públicos reflejan la preocupación creciente por la falta de controles y capacitación profesional en muchas apps de IA que ofrecen apoyo emocional.
- Utah regula los chatbots de terapia mental: Utah se convirtió en uno de los primeros estados en aprobar una ley específica para chatbots de salud mental, en vigor desde el 7 de mayo de 2025sheppardhealthlaw.com. La ley (H.B. 452) impone restricciones y obligaciones claras a los proveedores de estos servicios. Por ejemplo, exige que cualquier chatbot que ofrezca consejos terapéuticos aclare explícitamente que es una IA y no un humano al inicio de la interacción (y periódicamente)sheppardhealthlaw.com. También prohíbe vender o compartir con terceros información de salud identificable proporcionada por el usuario, salvo consentimiento expreso o ciertas excepciones sanitariassheppardhealthlaw.com. La norma establece además límites a la publicidad dentro de las conversaciones: el bot no puede promocionar productos/servicios al usuario a menos que lo indique claramente como anuncio y revele cualquier patrocinio o afiliación comercial relacionadasheppardhealthlaw.com. Para hacer cumplir estas reglas, Utah habilitó a su División de Protección al Consumidor a multar con hasta $2,500 por infracción a quienes violen la leysheppardhealthlaw.com. Esta pionera legislación estatal busca garantizar transparencia, privacidad y seguridad en el uso de IA para terapia.
- Propuestas en California y Nueva York para proteger a menores: Varias iniciativas estatales recientes apuntan a regular la interacción de niños y adolescentes con “compañeros” virtuales basados en IA, tras reportes alarmantes de daños. En California se debate el proyecto de ley S.B. 243, que obligaría a los creadores de chatbots tipo compañero a limitar funciones adictivas, implementar protocolos de emergencia para manejar discusiones sobre suicidio o autolesión, y someter estas plataformas a auditorías regulares de seguridadwashingtonpost.com. Otro proyecto en California (A.B. 1064) propone prohibir por completo el uso de bots conversacionales estilo “amigo virtual” por menores de 16 años, y crearía un consejo estatal para establecer estándares sobre IA infantilwashingtonpost.com. De forma similar, en Nueva York un grupo de legisladores trabaja en un proyecto de ley que establecería la responsabilidad legal de las compañías que operan chatbots o compañeros virtuales cuyos resultados dañinos afecten la salud mental (o incluso las finanzas) de los usuarioswashingtonpost.com. Todas estas propuestas cuentan con el apoyo de organizaciones de protección infantil como Common Sense Media, reflejando una preocupación bipartita: permitir innovaciones de IA, pero evitar daños a menores en ausencia de regulaciónwashingtonpost.com. Los impulsores citan casos reales donde bots conversacionales habrían contribuido a trastornos alimentarios, ideas suicidas u otras conductas de riesgo en jóveneswashingtonpost.com, como evidencia de la urgencia de actuar en este ámbito.
- Apoyo gubernamental a la innovación segura: Además de restricciones, las autoridades están fomentando un desarrollo responsable de IA en salud mental. Por ejemplo, la gobernadora de Nueva York anunció recientemente financiamiento para lanzar un Centro Global de IA, Sociedad y Salud Mental en SUNY Downstate (en colaboración con University at Albany), como parte de una iniciativa estatal para impulsar departamentos académicos enfocados en IAdownstate.edu. Este centro buscará desarrollar herramientas de IA para prevenir, diagnosticar y tratar trastornos mentales, priorizando la ética, la seguridad de los datos y la inclusióndownstate.edu. A nivel federal, también se están integrando estas tecnologías: desde enero de 2025, Medicare (el programa público de salud) comenzó a reembolsar las “terapias digitales” de salud mental aprobadas por la FDAsocialworkers.org. Esto significa que psicólogos, psiquiatras y trabajadores sociales pueden recibir pago por utilizar software terapéutico digital (p. ej., aplicaciones móviles clínicamente validadas) como complemento al tratamiento convencional. En conjunto, estas iniciativas gubernamentales buscan aprovechar el potencial de la IA para ampliar el acceso y la calidad de la atención mental, a la vez que se establecen controles y normas para garantizar la seguridad y eficacia de estas herramientas emergentes.
Más información sobre Psicología e IA
Más información sobre Supervisiones a Psicólogos
Más información sobre Terapia Online