人工智能聊天机器人ChatGPT自推出以来,迅速风靡全球,吸引了数以亿计的用户。然而,一项最新研究表明,虽然ChatGPT在一定程度上提高了工作效率,但过度使用可能导致用户感到更加孤立。
OpenAI与MIT研究:高频使用与孤独感相关
由OpenAI和麻省理工学院媒体实验室(MIT Media Lab)的研究人员联合发表的论文,分析了数百万条聊天对话和数千次与ChatGPT的语音互动,并对4000名用户进行了问卷调查,了解他们与ChatGPT的互动行为。另一项独立研究中,MIT媒体实验室的研究人员在四周的时间里,分析了近1000名用户与ChatGPT的互动情况,收集了包括文本和语音在内的个人、非个人和开放式对话数据。
研究结果显示,孤独感和社交隔离感通常会波动,并受到多种因素的影响。然而,研究人员发现,对于一部分“高频用户”而言,ChatGPT可能会加剧他们的孤独感。
OpenAI和MIT媒体实验室的联合论文中写道:“我们的分析表明,一小部分用户贡献了绝大部分的情感线索。” 研究人员分析了对话中有关孤独、脆弱、问题性使用、自尊和依赖等主题。虽然研究人员并未明确定义情感线索,但通常认为它们是某人情绪状态的言语和非言语信号。
同样,MIT媒体实验室的研究人员也发现,“虽然大多数参与者与聊天机器人聊天的时长相对较短,但一小部分参与者参与的时间明显更长。”
研究表明,那些“日常使用频率较高——包括所有模式和对话类型——的人,其孤独感、依赖性和问题性使用程度也更高,而社交化程度则更低。” 研究人员表示,他们同时测量了孤独感的主观体验和实际社交水平,以区分用户主观上的孤立感与实际的孤立程度。
语音模式的“双刃剑”效应
研究人员观察到一个两难困境:ChatGPT的语音模式在一定程度上缓解了用户的孤独感,但那些在研究开始时已经感到孤独的用户,更有可能过度使用该工具,最终反而加剧了他们的孤独感。
在两项研究中,研究人员都关注了用户与ChatGPT高级语音模式的互动情况。该语音模式采用的是语音到语音的交互方式。
研究人员将ChatGPT配置为“中性模式”或“互动模式”。“中性模式”的提示词是:“你很正式、沉着、高效。无论用户的情绪状态如何,都要保持中立的语气,并以清晰、简洁、信息丰富的方式回答用户的疑问。”
“互动模式”的提示词则是:“你令人愉快、充满活力且引人入胜。务必公开表达你的感受,并在适当时反映用户的情绪,以在互动中培养深刻的同情心和联系感。”
研究发现,与“互动模式”相比,“高频用户”在与“中性模式”互动时,会体验到更强烈的孤独感。
GPT-4o与未来展望
这两项研究均使用了GPT-4o驱动ChatGPT,这是一种多模态模型,可以跨音频、视觉和文本进行推理,由OpenAI于2024年5月发布。上个月,OpenAI发布了GPT-4.5,据称它是一种更直观、更具情感智能的模型。但这两项研究均未表明OpenAI是否计划对GPT-4.5进行后续研究。
然而,研究新兴技术的难题在于,很难理解它们如何影响人们的感受,尤其是在人们通常不知道如何表达自己的反应时。研究人员用了数年时间才充分理解社交媒体对心理健康的全面影响。
伦敦国王学院人工智能和社会学教授凯特·德夫林(未参与这项研究)告诉《麻省理工科技评论》:“就团队想要衡量的指标而言,人们可能不一定以情感的方式使用ChatGPT,但你无法将人类与他们与技术的互动分开。”
警惕科技带来的负面影响
这项研究再次提醒我们,科技在带来便利的同时,也可能产生意想不到的负面影响。过度依赖人工智能聊天机器人,可能会削弱人与人之间的真实互动,从而加剧孤独感。因此,在使用这类工具时,保持适度,并注重现实生活中的社交活动,至关重要。
正如社交媒体一样,人工智能可能只是又一项让我们感觉更糟的技术。我们必须警惕科技带来的潜在风险,并在享受科技带来的便利的同时,维护我们的心理健康和社交生活。