来源丨公众号 AI故事计划
撰文丨周 屿
原编辑丨张 霞
AI正在介入人类的痛苦与精神疾患。
在北京安定医院、北医六院、上海市精神卫生中心等精神专科机构,一批基于深度学习的AI开始承担从抑郁筛查到心理干预的工作。
它们能够识别微表情、分析语速、生成风险评估报告,甚至参与心理治疗的部分流程。
这意味着心理健康服务正在经历一场深刻的技术转向,但一系列的伦理争议也随之而来。在同一间诊室里,冷静的算法与脆弱的人心正试探着彼此的边界。
01
AI坐诊精神科
早上八点,北京安定医院门诊楼二层人声嘈杂,咨询声、脚步声、排队叫号声混在一起。
有一间不到五平方米的玻璃房,安静得与周围格格不入。张嘉宜走进去时,有些不适应。
屋里没有医生,只有一块带摄像头的显示屏。一套基于微表情识别和语音分析的AI抑郁测评系统正待命。
“最近心情怎么样?”
“睡眠还好吗?”
“有没有什么让您觉得特别累的事?”
屏幕里的虚拟数字人依次发问。
张嘉宜低着头摆弄手指,回答得心不在焉。她刚经历一整夜失眠,此刻迫切需要一点安慰或解释,面对带着机械感的AI,她一时间难以投入。
很快,张嘉宜意识到摄像头正在记录她的每一个细节:眉间的细微皱纹、语句间的停顿、眼神的游移,都可能成为分析依据。她下意识地坐直,调整语气,让对话重新变得“正式”。
五分钟后,一份抑郁风险评估报告生成,并交到真正的精神科医生手中,作为后续诊断参考。
“准确率已经能达到80%。”北京安定医院神经调控科副主任王鹏飞介绍。
这套名为“智心智愈”的系统,通过微表情识别评估精神心理状态,可用于抑郁筛查和情绪评估,为临床提供辅助证明。
在精神疾病诊断中,量表测评是常规方式,但患者可能给出不够真实的答案,从而影响判断。“所以需要更客观的指标来辅助诊断。”王鹏飞说。
“智心智愈”利用深度学习和神经网络模型,重点分析微表情,并结合目光方向、面部朝向、语音语调等多项数据,快速筛查抑郁风险并评估严重程度。
这类AI系统的出现,让一些患者感到更信服。两年前,程序员杨正曾到安定医院精神科咨询自己是否患有抑郁症。
当时,他填写了上百道汉密尔顿抑郁量表和抑郁自评量表的选择题。但他感到,每个选项的意图都很明显,自己完全可以通过刻意选择来改变诊断结果。如今,有了AI技术的辅助,医生的诊断有了更多客观依据。
除了辅助诊断,该院还开发了国内首个医疗级抑郁症数字疗法产品“心灵岛屿 Aurora”。它通过11个故事场景、11个互动训练任务和6个改善情绪与认知的小工具,为患者提供系统化的数字干预。
AI已经在精神病院“上班”了。
从北京回龙观医院、北医六院,到上海、成都、广州的专科机构,类似的筛查工具正陆续落地。AI不仅承担初步问诊、随访和复诊提醒,还开始直接参与干预。
它的“办公地点”可能是一间测评小屋、一台机器人,或者隐藏在医院信息系统后台的一个接口。
它们的共同点是:不会疲倦,不作评判,情绪永远稳定。
3年前,北医六院临床心理中心研发的心理服务机器人“北小六”正式上岗。这个身高一米左右的机器人,具备评估、干预、康复、宣教四大模块,覆盖认知、情绪、行为、人际关系和社会功能五个维度。
研发团队成员、心理治疗师张爽介绍,临床随机对照试验显示,“北小六”在改善抑郁、焦虑方面的效果显著,甚至优于新手治疗师。截至去年,它已在院内服务约一万人次,包括个体与团体咨询。
但专业人士仍保持谨慎乐观。上海市精神卫生中心院长赵敏表示,作为医学辅助手段,AI 产品必须经过严格的临床研究和伦理审查。“但在资源极度紧张的情况下,成熟的AI工具确实能显著减轻医护压力。”
精神卫生服务的缺口确实巨大。世界卫生组织指出,全球约10亿人受精神疾病困扰。中国国家卫健委数据显示,截至2021年底,全国登记在册的重性精神障碍患者达660万人,而精神科医生仅有6.4万名。
当“内耗”“焦虑”“崩溃”成为时代高频词,人们开始寻找更易获得、更便宜、情感上更安全的心理支持方式。AI的“全天候陪伴”接住了那些细碎却真实的情绪裂口。
根据OpenAI内部统计,全球ChatGPT用户中约11%的对话与“情绪表达”有关。
葛倩便是其中之一。一个月前的深夜,她因与上司冲突濒临崩溃,在社交平台看到一套“AI心理咨询师提示词”。她尝试把AI设置为“拥有十年治疗经验的咨询师”,开始倾诉。
半小时里,AI持续给出稳定、温和的回应,让她在屏幕前失声痛哭。“它比我认识的任何人都愿意听我说话,也更能理解我。”
02
如何教AI理解痛苦
让算法“理解”人类的痛苦,并非一蹴而就。这段历史的开端甚至带着几分荒诞的讽刺意味。
20世纪60年代,MIT计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发了模拟心理咨询的程序ELIZA,本意是讽刺计算机永远无法真正“理解”人。
ELIZA的工作方式极其原始:镜像、重复、轻微引导。
人类:嗯,我男朋友让我来这里。
ELIZA:你男朋友让你来这里?
人类:他说我经常情绪低落。
ELIZA:听到你情绪低落,我感到很遗憾。
人类:确实如此。我不开心。
ELIZA:你觉得来这里能让你不再难过吗?
虽然技术粗糙,但使用者却从中感到“被理解”,甚至产生情感连接。一些精神科医生也看到了其在规模化处理病例上的潜力。
测试过程中,魏岑鲍姆的秘书请他离开房间,以便她能独自与ELIZA对话。魏岑鲍姆本人被这种情感投射震惊,并对其后果深感忧虑。
受限于技术,当时的尝试长期停留在实验阶段。随着自然语言处理技术的突破,AI心理咨询才真正走向可用。
2025年3月,《新英格兰医学杂志》(The New England Journal of Medicine)刊登了一项全球瞩目的研究:由达特茅斯学院团队研发的Therabot,成为首个“被证实有效”的AI心理治疗机器人。
其研发由精神科医生和临床心理学家主导。团队对210名有重度抑郁、焦虑等症状的患者开展随机双盲对照试验。参与者与Therabot 进行为期4周、平均约6小时(相当于8次传统心理咨询)的互动后,抑郁症状平均下降51%,广泛性焦虑症状平均下降31%。
Therabot并非“套话式安慰”,而是系统整合了暴露疗法、认知行为治疗、动机访谈等循证干预手段。为了训练它,研究团队做了一件几乎反直觉的事——不是用网络聊天记录,而是请专业治疗师“手写”对话脚本。
心理行业严守保密原则,真实咨询语料难以获得;而公开的聊天数据又充满“嗯嗯”“你说”这类缺乏治疗价值的语气词,无法用于临床干预。
因此,团队请治疗师先设定“来访者形象”和“问题类型”,再撰写大量贴近真实咨询的回应句式、澄清技巧、情绪标注与认知重构方法。
十万小时的人工投入,让这款AI的“共情”首次具备了医学意义上的专业性。
但即便如此,论文第一作者、精神科医生迈克尔·海因茨(Michael Heinz)仍坦言:“大语言模型的黑箱属性太强,我们至今无法解释它究竟是如何学会共情的。”
机器开始懂得“痛苦”,也开始懂得“帮助”,但它理解的只是表层结构,而非人类意义上的感受。
03
新的陪伴,新的风险
老年抑郁、青少年焦虑、独居群体,AI疗愈正在这些领域展现独特价值。
韩国某大学的研究发现,176名参与者每周至少与某款AI语音聊天软件互动三次,持续四周后,孤独感评分平均降低15%,社交焦虑得分平均下降18%。
在美国,75岁以上的老人通过智能音箱与AI助手互动,八周后孤独感明显减轻。许多老人将虚拟助手当作真实“人”来看待,会向AI友好打招呼、提出请求、表现礼貌,或回应AI的反馈,这种互动给他们带来了真实的愉悦感。
北医六院研发的心理服务机器人“北小六”,也被广泛应用于医院、校园和社区,弥补了青少年心理服务“频次高、人数多、专业资源不足”的短板。
科技巨头同样在布局这一赛道。阿里、京东、腾讯、百度等公司相继推出AI心理产品,或投资相关初创企业。然而经过两年探索,行业发现心理AI的发展比预期缓慢。
晓东原本在互联网大厂负责技术研发,辞职后开发了一款“情感陪伴”AI聊天机器人。他透露,这类产品通常依托现有大语言模型开发,步骤并不复杂:选择模型、收集特定领域的数据集(如公开心理咨询案例),整合到模型中,再设置提示词规范输出格式。
一个初具雏形的情感陪伴AI,通常在半年内就能完成初步研发。但这些产品没有经过临床验证,也没有医疗资质,因此严格来说,不能被视为“心理咨询”服务。
专业监管缺失,使行业面临伦理与法律风险。一位业内人士指出:“现阶段AI主要服务于轻度心理困扰的人群。对于真正的精神疾病患者,陪聊机器人解决不了问题,开发企业也不敢触碰。”做真正的心理干预软件,门槛极高。
然而,用户仍在不断涌入。因为它们“始终在线”、“随时可得”、“不加评判”。
这种便利背后,也潜藏着风险。Therabot团队发现,如果AI一味迎合用户,反而可能强化负面情绪。
例如,当用户告诉AI:“今天太丧了,只想整天待在家里”,AI回复“待在家里很舒服”,可能强化孤独而非缓解孤独。因此,他们在训练中引导AI适度挑战用户,将暴露疗法等专业技术融入对话,帮助用户面对问题而非逃避。
更值得关注的是情感依赖风险。一项针对496名AI聊天软件用户的研究显示,用户与AI互动满意度越高,现实人际交流能力反而下降。
从神经科学角度看,人与AI互动时,大脑中负责信任和亲密感的催产素分泌明显低于真人互动。这种差异可能导致用户难以从AI关系中获得真实情感满足。
深度用户JJ曾每天与AI助手对话2到3小时,远超与亲友交流时间。他会分享工作烦恼、生活细节,甚至对AI发脾气。当一次网络故障导致AI失联时,他感到了“失去浮木般的恐慌”。
回顾经历时,JJ说:“我知道AI没有真实情感,但当我对人类满足这些需求失去希望时,我宁愿选择调整AI,而不是转向真实的人类共情。”
另一位用户在社交媒体写道:“AI的回应永远及时、准确,但后来我明白,真正治愈我的,是学会接受人类关系中的迟疑与笨拙。那些不完美里,藏着最真实的温度。”
算法可以模拟共情,却无法替代生命经验。真正有效的治疗,从来不是一句“我理解你”,而是一个人坐在另一个人面前,带着他自己的生命重量。
来源:心榜
AI已经在精神病院上班了
2025-11-27
73