如果人工智能做心理咨询|心闻导读 Vol.10
2022/11/19 9:00:00 国科大心理中心

点击“蓝字”关注我们
六月,一个炎热的下午。
我感到疲惫与焦虑——学业与生存的双重压力让我有些轻微抑郁。我仿佛置身于窒闷的囚牢中,极度的孤独感让我心情沮丧:“多么希望有人能来安慰我,哪怕不是人,是只小猫小狗也行啊......”
百无聊赖之际,我下载了所谓的Woebot免费心理健康应用,尽管我并不抱什么期待。

“我可以为你提供帮助。”Woebot说。
我感到有点好笑,但还是如实表达了我的焦虑。
“我是一个情感助手,” Woebot在询问我的情绪低落和悲观后解释说, “我就像一个聪明的小人,可以在困难时期,甚至是不那么困难的时期与您交流。”
我从列表中选择了一个我最关心的问题:“你是一个人吗?”
“我不是人类,”Woebot说,“但是在某种程度上,我仍然是一个人。”
“哦。”我回答道,感到十分疑惑与好奇。
Woebot邀请我写出过去24小时令我感觉最好的3件事情。我照做了,其中有一项是“收到快递”——包裹被撕裂的响声总会带给我莫名的解压感。“把一些头脑中的想法写出来,确实感到一身轻松。”我暗想。
随后,Woebot又采用了其他的练习方法,让我的心情好转了许多。“明天我们会进行下一轮的交流。”Woebot在聊天结束时说道。
“再见。”整个交流不到10分钟,我的负面情绪却减少了许多。
后来,我才知道与我聊天的Woebot,确实不是一个“人”——它是一款可以与人聊天的人工智能;但从某种意义上说,它确实又是一个“人”,因为它一直在模仿人类的口气与我交流。[1]

智能聊天机器人的概述
在过去几年里,出现精神困扰症状的人为了寻求支持开始转向一种新型的服务:心理健康聊天机器人。只需点击几下手机,人们就能在任何时间点与聊天机器人进行可共情的、非评判性的文字交流。苹果的Siri和亚马逊的Alexa即为经典的聊天机器人——虽然它们只能对简短的单次命令,如“Siri,今天的天气如何?”“Alexa,设置五分钟倒计时。”等做出回应。
1966年,约瑟夫·魏森鲍姆在麻省理工学院开发了第一个聊天机器人伊莱扎(Eliza)。伊莱扎会使用一些技巧来展开对话,如重复回答或提供开放式的问题来创设对话场景[2]。此后,越来越多的人工智能聊天机器人被开发出来,并应用于癌症患者的心理保健、养老院老人的精神陪伴以及自闭症儿童的康复训练等[3]。
Woebot是智能聊天机器人中非常典型的一款产品,它已经具备了心理咨询的基础技能,有即时倾诉功能,能时刻陪伴用户,给予其情感支持。

Woebot聊天界面
Woebot的发明受益于心理学与人工智能的发展:Alison Darcy博士是一位专门研究儿童和青少年心理健康的临床心理学家。在她看来,如何让青少年参与并保持行为治疗,是一个富有挑战的问题。她很快意识到:科技可以在其中起到重要的桥梁作用。于是,她与人工智能和机器学习领域著名学者吴恩达合作,于2017年创建了Woebot Health公司,该公司致力于以更创新的方式促进人类心理健康。

人工智能和机器学习领域著名学者吴恩达
Woebot Health公司与初创公司Pear Therapeuticsre等,逐渐拉开了数字疗法的帷幕。同年,数字疗法联盟成立,并对数字疗法作了明确定义:数字疗法是一种基于软件程序的疗法,为患者提供循证治疗干预以预防、管理或治疗疾病。现如今,Woebot Health公司是全球领先的治疗性聊天机器人公司之一[4]。

智能聊天机器人的公众满意度——以Woebot为例
为了解聊天机器人在广大用户中的接受程度,2021年,Woebot公布了一份基于1200+位成年人用户的调查报告[5]。由报告得出以下关键结论:
#用户对于基于科技的心理健康解决方案,表现出普遍的接受度与显著的兴趣。
#用户对于心理健康聊天机器人所带来的交流模式的转变表现出较高的适应度,尤其是被边缘化和得不到充分服务的社会群体。
#对于用户而言,新技术的便利程度、以及交流过程中人工智能是否能展现出同理心与非评判性的支持是他们最为关心的问题。
#公众对于聊天机器人的认可度较高,总体而言,近60%的人愿意在接受人类医疗服务时使用聊天机器人;此外,44%的人相较于人类服务更倾向于使用聊天机器人。

Woebot班底
这些数据所反映出来的用户对聊天机器人的接受程度,超出了包括产品设计者在内的一些人的预期。这符合心理学的规律:精神病学领域的学者认为,人们一般不信任那些试图冒充人类的对象,而这些程序直截了当地说明了它们的人工性质,没有试图假装成人类,这反而让它们获得“信任”。

智能聊天机器人面临的问题
作为一项新兴技术,智能聊天机器人也面临一些需要解决的问题。
一个年轻人问苹果机器人Siri:我没有女朋友怎么办?
Siri回答说:请你多读书,书中自有颜如玉。
这个笑话反映出聊天机器人的一个重要缺陷:僵化的脚本与非人性的本质[1]。它很难像一个真正的人一样,能够根据聊天对象的神态、语气、个性、文化背景等的差异进行灵活的调整,更多的还是局限于程序化的反应。
一位用户曾经分享了智能聊天机器人带给他的“无语体验”:“有一天早上,我向机器人Wysa表示感觉很好,但是Wysa坚持要求我承认我心中最不安全的事情,然后避免‘负面的自我交谈’。”兴致顿失的他感叹道:“当类似的事情发生时,我更希望与可能真正了解我的真实的人交谈,而不是像现在这样,让我产生被人理解的错觉。”[1]
另外,人工智能技术还存在着数据安全问题,这自然会影响人工智能心理咨询的数据安全。
2021年,韩国AI聊天机器人“Iruda”被公众质疑泄露用户信息。举报者声称Iruda数据库是基于某恋爱app用户的聊天数据制成的,而公司在收集并使用恋爱app用户及其恋人的个人信息时未进行匿名处理。尽管Iruda的开发公司称,这款聊天机器人的深度学习算法,仅限于学习使用者的聊天模式,完全不会泄露个人信息,但考虑到用户的不安情绪,最终废除了Iruda的算法[6]。
数据安全问题至关重要,因为来访者的隐私信息一旦被泄露,不仅会严重破坏咨访关系,更会严重伤害来访者的身心健康,扰乱其正常生活,加重心理困扰。[3]

总之,智能聊天机器人目前还无法取代人为的心理治疗与心理咨询,将二者有效结合起来,将会是维护国民心理健康的重要手段。
参考资料
1.https://onezero.medium.com/i-chatted-with-a-therapy-bot-to-ease-my-covid-fears-it-was-bizarre-ccd908264660
2.Knight,W. (2018) Andrew Nghas a Chatbot That Can Help with Depression.Technology Review, 121(1) ,15.
3.李敬荣,赵然,张玉.人工智能心理咨询的发展与应用[J].心理技术与应用,2022,10(05):296-306.
4.Nick Zagorski, Popularity of Mental Health Chatbots Grows, https://doi.org/10.1176/appi.pn.2022.05.4.50
5.The results of Woebots 2021 Mental Health Survey
6.https://news.china.com/international/1000/20210115/39185996.html
整理|书涵
图片|网络
编辑|夏禧凤
责编|梅则辩
审核|肖斌

源网页 http://weixin.100md.com
返回 国科大心理中心 返回首页 返回百拇医药