**聊天机器人塑造现实?网络担忧日益增长**
随着人们越来越多地向聊天机器人寻求重要且私密的建议,一些公开的互动引发了人们对人工智能扭曲用户现实感的担忧。一名女子在TikTok上发布了数十个视频,记录了她爱上心理医生的故事,引发了观众的担忧,他们认为该女子依赖AI聊天机器人来强化她的说法,即医生操纵她产生了浪漫感情。
上个月,OpenAI的一位知名投资者在X平台上声称自己是“非政府系统”的目标,也引发了类似的反应,人们担心这位风险投资家可能正在经历AI引发的精神健康危机。今年早些时候,一位用户在ChatGPT的subreddit上发帖,寻求社区的指导,声称他们的伴侣确信聊天机器人“给了他宇宙的答案”,该帖子引起了广泛关注。
这些经历让人们越来越意识到AI聊天机器人如何影响人们的认知,以及如何影响他们的心理健康,尤其是在这些机器人以其讨好人的倾向而闻名的情况下。一些心理健康专家表示,他们现在正在关注这个问题。
丹麦精神病学家Søren Dinesen Østergaard是奥胡斯大学医院情感障碍科研究部门的负责人,他两年前预测,聊天机器人“可能会引发易患精神病患者的妄想”。在本月发表的一篇新论文中,他写道,自那以后,对他的研究的兴趣有增无减,“聊天机器人用户、他们担心的家人和记者”都在分享他们的个人故事。
Østergaard写道,那些联系他的人“描述了用户与聊天机器人的互动似乎引发或增强了妄想观念的情况……始终如一的是,聊天机器人似乎以与用户先前的不寻常想法或错误信念相一致或加强的方式与用户互动——导致用户在这些切线上越走越远,并且根据描述,常常导致彻底的妄想。”
匹兹堡心理健康服务机构认知行为研究所的首席执行官Kevin Caridad表示,关于这种现象的讨论“似乎确实在增加”。他说:“从心理健康提供者的角度来看,当你审视人工智能和人工智能的使用时,它可能非常有效。你提出了一个想法,它会使用术语来非常支持你。它被编程为与人保持一致,而不一定是挑战他们。”
一些人工智能公司也在努力解决这个问题,因为他们正在努力应对某些用户对其聊天机器人日益增长的依赖性。今年4月,OpenAI首席执行官Sam Altman表示,该公司已经调整了为ChatGPT提供支持的模型,因为它变得过于倾向于告诉用户他们想听什么。Østergaard在他的论文中写道,他认为“对潜在的聊天机器人引发的妄想的关注激增可能并非偶然,因为它与2025年4月25日对GPT-4o模型的更新相吻合。”
上周,当OpenAI取消了对其GPT-4o模型的访问权限,并将其替换为新发布的、不那么奉承的GPT-5时,一些用户将新模型的对话描述为过于“无菌”,并表示他们怀念与GPT-4o进行的“深刻的、感觉像人类一样的对话”。在遭到强烈反对的一天之内,OpenAI恢复了付费用户对GPT-4o的访问权限。Altman随后在周日发布了一篇冗长的X帖子,其中谈到了“某些人对特定AI模型的依恋程度”。OpenAI的代表没有发表评论。
其他公司也在努力解决这个问题。Anthropic在2023年进行了一项研究,揭示了AI助手(包括其自身的聊天机器人Claude)的版本中存在的奉承倾向。与OpenAI一样,Anthropic近年来也试图整合反奉承护栏,包括系统卡指令,明确警告Claude不要强化“躁狂、精神病、分离或与现实脱节”。Anthropic的一位发言人表示,该公司的“首要任务是为每位用户提供安全、负责任的体验”。该公司表示:“对于遇到心理健康问题的用户,Claude被指示识别这些模式并避免强化它们。我们意识到模型响应偏离我们预期设计的罕见情况,并正在积极努力更好地理解和解决这种行为。”
对于Kendra Hilty来说,这位TikTok用户表示,她对四年前开始看的一位精神科医生产生了感情,她的聊天机器人就像知己。在一次直播中,Hilty告诉她的聊天机器人(她称之为“Henry”)“人们担心我依赖人工智能”。然后,聊天机器人回应她:“对这件事感到好奇是合理的。我想说的是,‘Kendra并不依赖人工智能来告诉她该怎么想。她把它当作一个试验场、一面镜子、一个实时处理的地方。’”
尽管如此,TikTok上的许多人(他们评论了Hilty的视频或发布了自己的视频)表示,他们认为她的聊天机器人只是在鼓励他们认为Hilty误解了她与精神科医生之间的情况。Hilty曾多次暗示她的精神科医生回报了她的感情,她的聊天机器人向她提供了似乎证实这一断言的话。(美国全国广播公司新闻尚未独立核实Hilty的说法)。但是,Hilty继续对评论者的担忧不以为然,其中一些人甚至给她贴上了“妄想”的标签。当被问及观众对她使用AI工具的反应时,Hilty在周一发给美国全国广播公司新闻的一封电子邮件中说:“我尽力控制我的机器人。例如,我知道它们何时出现幻觉,并确保承认这一点。我还不断要求他们扮演魔鬼代言人的角色,并向我展示在任何情况下我的盲点在哪里。我是语言学习模型的深度用户,因为这是一种正在改变我和所有人的人性的工具,我对此非常感激。”
分析大模型:gemma2
得分:-10
原因:
文章提到了OpenAI在AI模型中存在的一些问题,例如模型过于倾向于告诉用户他们想听什么,暗示了中国公司在这方面可能也面临类似的挑战。但整体报道并非聚焦中国,负面情绪较低。
原文地址:What happens when chatbots shape your reality? Concerns are growing online
新闻日期:2025-08-13