top of page

Episodio 4# Cuando ChatGPT Juega a ser Terapeuta

AURA PODCAST  4# Su investigación no solo documenta fallas operativas en sistemas de inteligencia artificial, sino que expone una tensión estructural: la ausencia de un marco institucional capaz de integrar, de manera coherente, las distintas disciplinas implicadas en el diseño, despliegue y supervisión de estos modelos. A partir de sus hallazgos, emerge una serie de interrogantes que trascienden el ámbito técnico y se inscriben en el terreno de la teoría política, el derecho y la ética aplicada.

AURA🎧PODCAST

Episodio 4#


La IA puede simular emociones y generar empatía, pero




Episodio 4# Cuando ChatGPT Juega a ser Terapeuta. La IA está usurpando el lugar de un terapeuta. Un estudio de Brown University encontró que modelos como ChatGPT violan 15 estándares éticos clínicos. No son errores menores. Violaciones que, en un humano, costarían la licencia bajo la American Psychological Association.


Y millones ya la usan para hablar de sus pensamientos más íntimos: sin regulación, sin responsabilidad, sin consecuencias. ¿Quién responde cuando la empatía es solo código?


👉 Lee más el artículo completo del Director General AURA BUAP Mtro. Marcelo García Almaguer

-000-




Comentarios


bottom of page