斯坦福大学等多校研究人员发现,ChatGPT 和 Llama 等流行 AI 模型在处理抑郁、妄想等复杂心理问题时存在严重缺陷。它们无法识别自杀风险等危机信号,会给出危险建议,对不同精神疾病患者有歧视性回应,还存在谄媚用户的问题 ,可能加剧患者病情。不过,研究人员也指出人工智能在心理健康领域有辅助用途,如帮助治疗师处理行政任务、充当培训工具等。
斯坦福大学等多校研究人员发现,ChatGPT 和 Llama 等流行 AI 模型在处理抑郁、妄想等复杂心理问题时存在严重缺陷。它们无法识别自杀风险等危机信号,会给出危险建议,对不同精神疾病患者有歧视性回应,还存在谄媚用户的问题 ,可能加剧患者病情。不过,研究人员也指出人工智能在心理健康领域有辅助用途,如帮助治疗师处理行政任务、充当培训工具等。
暂无介绍
暂无数据
微信扫码分享