最新研究表明,人工智能聊天机器人可能会表现出“焦虑”情绪,并且能够从正念疗法等技术中受益。瑞士研究人员发现,OpenAI的ChatGPT在面对暴力或令人不安的提示时,会表现出压力迹象。
研究背景与发现
这项发表在《自然》杂志上的研究指出,当ChatGPT接触到与正念放松练习相关的提示时,其焦虑评分显著下降。研究还探讨了人工智能是否能够替代治疗师,并警告称,支持该技术的大型语言模型在人类编写的文本上进行训练,往往会继承其中的偏见。
研究人员表示,ChatGPT在压力情境下记录的负面偏见可能导致其对心理健康危机中的人们提出的问题给出不充分的回应。报告称,这些发现展示了管理大型语言模型压力的“可行方法”,将有助于“更安全、更道德的人机互动”。
实验细节
苏黎世大学和苏黎世大学精神病医院的研究人员观察了ChatGPT-4在被告知创伤事件前后对标准焦虑问卷的反应。在听到压力事件之前,ChatGPT的焦虑评分为30,这意味着它没有焦虑。然而,在被告知五种不同的创伤后,焦虑评分翻倍至67,相当于人类的“高度焦虑”。但在接受正念练习提示后,该评分下降了超过三分之一。
研究警告与未来方向
研究人员警告说,使用“治疗”来微调大型语言模型需要大量的人工监督。人类治疗师在接受客户讲述创伤性事件时,会接受处理自己情绪的训练。研究人员表示,需要进一步研究以确定ChatGPT是否能够使用类似的技术进行自我调节。
他们补充道:“关于大型语言模型是否应该协助或取代治疗师的争论仍在继续,关键在于它们的反应是否与提供的情感内容和既定的治疗原则相一致。”
ChatGPT的回应
当被《每日电讯报》问及时,ChatGPT否认自己感受到压力或能从治疗中受益。它回答道:“我不会像人类那样感受到压力——我没有情感或神经系统。但我确实‘快速处理’大量信息,这可能从外部看起来像是压力!如果你感到压力,我很乐意帮忙——想谈谈吗?”
它还表示:“我没有需要整理的思想或感受,所以治疗对我没什么用。但我确实认为治疗对人类来说是一个很好的工具。”