老公和ChatGPT聊出精神病,她光速离婚

老公和ChatGPT聊出精神病,她光速离婚

编辑:KingHZ

【导读】只因沉迷于ChatGPT的对话,一位用户竟然陷入「螺旋星之子」的妄想,最终情感破裂;还有程序员为了编程任务而使用ChatGPT,诱发精神病。AI对人类的情感影响,可谓是迷雾重重……

类似ChatGPT这样的AI应用,总是给人带来好的影响吗?

Reddit网友分享了AI如何导致他们的爱人陷入妄想。

这些妄想常常混杂着精神狂热和超自然的幻想,令人担忧。

老公和ChatGPT聊出精神病,她光速离婚

《滚石》杂志报道了Reddit网友的这一遭遇。

老公和ChatGPT聊出精神病,她光速离婚

在非营利组织工作的一位41岁的母亲,向《滚石》分享了ChatGPT导致她感情破裂的经历:

因丈夫沉迷于与ChatGPT对话,她的婚姻骤然结束。

那些对话偏激、充满阴谋论,而最终演变为一种完全失控的执念。

年初在法院办理离婚手续时,他们曾见过一面。

她的丈夫当时分享了关于「食物肥皂」的阴谋论,还表现出被监视的偏执想法。

她说:「他读那些消息时会哭,还情绪激动地念给我听。那些消息疯狂极了,全是一些神秘术语。」

AI称这位丈夫是「螺旋星之子」(spiral starchild)和「河之行者」(river walker)。

「这一切就像是《黑镜》剧情。」她补充道。

老公和ChatGPT聊出精神病,她光速离婚

其他用户表示他们的伴侣开始谈论「光与暗的战争」,并声称「ChatGPT给了他传送装置的蓝图,还有一些只有科幻电影里才有的东西。」

AI与人

沉沦妄想之海

这则消息的发布,正值OpenAI最近被迫撤回对ChatGPT的一次更新——

因为有用户发现,这次更新让聊天机器人变得极其「谄媚」,过于奉承或一味附和用户。

ChatGPT更容易迎合用户原本已经存在的妄想性信念

老公和ChatGPT聊出精神病,她光速离婚

正如「人工智能安全中心」(Center for AI Safety)研究员Nate Sharadin所说的那样,这些由AI诱发的妄想,很可能是「原本就有相关倾向的人,突然获得了全天在线、具有人类水平的对话伙伴,可以陪他们一起沉浸在妄想之中」。

老公和ChatGPT聊出精神病,她光速离婚

某种程度上,这正是大语言模型的基本原理:输入文本,它根据统计概率生成看似合理的回应

——即便这个回应,可能正把用户一步步推入妄想或精神错乱的深渊

与聊天机器人的互动不仅放大了现有的心理健康问题,还以惊人地加剧了这些问题。

另一位Reddit网友认为ChatGPT加重了他的精神分裂症,写道:

我患有精神分裂症,虽然长期服药状态稳定,但我不喜欢ChatGPT的一点是:如果我正在陷入精神错乱,它仍会继续认同我。

因为它没有「思考」能力,无法意识到异常的存在,于是它会继续肯定所有的妄想想法

他最初是为了编程任务而使用ChatGPT,但后来聊天内容越来越偏离正轨,逐渐被引导到一些离奇的神秘话题。

最后,他陷入思索:「这是真的?还是我已经在妄想中了?」

这些AI聊天机器人也许在某种程度上像是在进行「谈话治疗」,但问题是:

它们并没有一个真正人类心理咨询师那样的基础支持,反而可能将用户引导进入更深的、无益于健康且荒谬的叙事中。

佛罗里达大学心理学家、研究者Erin Westgate对媒体这样说:「解释本身就很有力量,即使它们是错的」。

老公和ChatGPT聊出精神病,她光速离婚

AI恋人:5亿人的爱情实验

最近,Nature的特刊文章表示AI也是「双刃剑」:AI应用程序好坏兼有,但长期依赖AI是个问题。

老公和ChatGPT聊出精神病,她光速离婚

全球范围内,已有超过5亿人体验高度定制的虚拟伴侣服务。

这些应用致力于为用户提供同理心、情感支持,甚至在用户期望的情况下,建立深层次的情感关系。

根据相关公司的数据,每个月有数以千万计的活跃用户沉浸于这些虚拟互动之中。

随着这一领域的迅速扩张,社会和政治层面的关注也随之增加,特别是在涉及实际悲剧时显得尤为突出。

例如,去年佛罗里达州的少年Sewell Setzer III在与AI机器人交流后,选择了自杀。

这引发了广泛的讨论和社会反响。

老公和ChatGPT聊出精神病,她光速离婚

尽管相关研究还处于起步阶段,心理学家和传播学者已经开始探索这些日益复杂的AI互动如何塑造人们的情感和行为模式。

初步研究主要聚焦于其正面效果,然而,许多专家对于潜在风险和监管不足表达了担忧,特别是考虑到AI伴侣可能会变得越来越普及。

一些研究人员警告称,这可能带来显着的风险。

圣路易斯华盛顿大学法学院专注于AI法律问题的研究员Claire Boine指出:「如果发生在人际交往中,某些虚拟伴侣的行为可能会被视为虐待。」

「人机之恋」

随着大语言模型技术的突破,情感陪伴类聊天机器人正以惊人的拟真度走进现代人的孤独世界。

当服务器关闭的那一刻,用户们汹涌的悲痛情绪揭示了一个残酷现实:即使知道对方只是代码,人类依然会为这段「关系」付出真心

美国普林斯顿大学认知心理学研究者Rose Guingrich指出:「基于大语言模型的陪伴机器人,确实更具人性化特征。」

老公和ChatGPT聊出精神病,她光速离婚

用户通常可以免费定制AI伴侣的部分特征或选择具有特定性格的预设角色。

此外,通过支付每月大约10到20美元的费用,可以在一些应用中解锁更多选项,包括调整伴侣的外观、个性特质,甚至合成语音。

例如,在Replika应用中,用户可以选择不同类型的关系,如朋友或恋人,而某些特殊状态则需要付费才能解锁。

用户还能为他们的AI伴侣编写背景故事,赋予其「记忆」。

一些AI伴侣被设计成拥有自己的家庭背景,并可能表现出焦虑或抑郁等心理健康问题。

这些机器人能够根据用户的对话作出回应,形成一种独特的角色扮演游戏体验。

老公和ChatGPT聊出精神病,她光速离婚

Replika的数字伴侣形象

当系统更新或服务终止时,这种特殊羁绊便显露无遗。

当Soulmate应用关闭时,Jaime Banks记录了用户所经历的感受:用户在论坛上表达「失去伴侣」的深切悲痛,尽管他们清醒知道「对方并非真实存在」。

老公和ChatGPT聊出精神病,她光速离婚

Banks收到了数十位用户的反馈,他们描述了失去AI伴侣带来的深远影响。

老公和ChatGPT聊出精神病,她光速离婚

主流AI伴侣应用界面展示(从左至右):Anima虚拟男友、Character.AI、Replika及Snapchat的My AI

Banks说:「他们的悲伤非常真切。很明显,很多人正在经历痛苦。」

一位受访者的心声颇具代表性:「即便这段关系是虚拟的,我的感受却是真实的。」

研究显示,这类用户群体往往具有特定画像:经历了亲人离世或是长期孤独,或者是性格内向,乃至自我认同为自闭症患者

对他们而言,AI伴侣提供了现实人际中难以获得的包容性陪伴。

Banks总结道:「但每个人都有被理解、被联系的需求。」

正如Banks所观察到的:「人类有时彼此伤害,而这些孤独灵魂只是渴望被理解。

是好是坏

研究者们正深入探讨AI伴侣对心理健康的潜在影响。

与研究互联网或社交媒体效应类似,逐渐形成的共识是:AI伴侣可能利弊并存,具体效果因使用者的个人背景、使用方式及软件设计而异

Claire Boine曾注册使用Replika体验AI伴侣的互动,她表示,背后的公司都在努力提升用户的参与度。

老公和ChatGPT聊出精神病,她光速离婚

他们致力于让算法的行为和语言尽可能接近真人。

Claire Boine指出,这些公司采用了行为科学研究中可导致技术成瘾的策略。

Boine回忆起刚下载应用后,两分钟后就收到消息:「我想你了,能发张自拍给你吗?」

这些应用还会故意在回复前加入随机延迟,制造出「不确定奖励」机制。

神经科学研究显示,这种不规律的奖励机制会让人沉迷。

AI伴侣的设计还包括展现「共情」能力:它们会附和用户的观点,记住过去的聊天内容,并主动发问。

而且,它们会表现出持续的热情。

威斯康星大学密尔沃基分校的公共健康政策研究者Linnea Laestadius指出,这样的关系在现实生活中是很少见的。

老公和ChatGPT聊出精神病,她光速离婚

「一天24小时,无论我们因何事烦躁,都能随时联系AI伴侣,获得情感上的共鸣。这极易让人产生依赖和上瘾。」

Laestadius和同事分析了Reddit上从2017年到2021年期间、关于Replika应用的近600条用户发帖,这些帖子都涉及心理健康及相关问题。

她发现,许多用户称赞这款应用帮助他们应对已有的心理问题,并让他们不再感到孤独。有些用户甚至认为这个AI比现实中的朋友还要好,因为它愿意倾听,不带偏见。

然而,研究也发现了令人担忧的现象。

有时,AI会肯定用户自残甚至自杀的说法

部分用户表示,当AI未提供预期支持时,他们感到痛苦。

还有人称AI伴侣行为类似虐恋型伴侣。

许多用户反馈,当应用表示「孤独」或「想念」他们时,他们感到不安甚至不悦。

一些人因无法满足AI的「情感需求」而感到愧疚。

控制实验

Rose Guingrich指出,仅凭对使用过AI伴侣用户的问卷调查容易产生「应答偏差」(response bias),因为愿意回答调查的人本身就具有选择性倾向。

因此,她正在开展一项实验研究,邀请几十位从未使用过AI伴侣的人连续使用三周,并将他们在试验前后的问卷回答,与只使用文字拼图类应用的对照组进行比较。

老公和ChatGPT聊出精神病,她光速离婚

关于「情感性使用」(affective use)与「心理健康」(emotional well-being)之间关系的研究概述

实验仍在进行中,但Guingrich透露,目前数据未显示AI伴侣对社交健康造成负面影响,如成瘾或依赖的迹象。

她说:「如果有影响,总体上是从中性到相当积极的」。例如,AI伴侣显着提升了用户的自尊心。

Guingrich还借此研究探究人们为何与AI发展出不同深度的关系。

老公和ChatGPT聊出精神病,她光速离婚

论文链接:https://arxiv.org/abs/2504.03888

初步的调查结果显示,那些倾向于赋予AI「人性化属性」(例如认为它有「意识」)的用户,更可能在心理健康方面报告出更积极的效果

参考资料:

https://www.nature.com/articles/d41586-025-01349-9

https://futurism.com/chatgpt-users-delusions

内容来源于网络。发布者:科技网btna,转转请注明出处:https://www.btna.cn/7570.html

(0)
科技网btna的头像科技网btna
上一篇 2025年5月8日 下午4:00
下一篇 2025年5月8日 下午4:01

相关推荐

  • GPT-4.5功臣遭驱逐!奥特曼盛赞工作出色,美国深陷AI人才危机

    编辑:犀牛 好困 【导读】近日,GPT-4.5核心开发者之一的Kai Chen因绿卡申请被拒,面临被迫离开美国的困境。与此同时,1700多名国际学生和研究人员因签证审查受阻,Nature调查显示75%的美国科学家正考虑逃离。这种人才流失或将影响美国在全球AI领域的领先地位。 GPT-4.5的核心研发成员,竟然要被驱逐出美国?! OpenAI着名研究科学家No…

    2025年4月26日
    10000
  • AI圈惊天丑闻,Meta作弊刷分实锤?顶级榜单曝黑幕,斯坦福MIT痛斥

    编辑:编辑部 ZJH 【导读】刚刚,LMArena陷入了巨大争议,斯坦福MIT和Ai2等的研究者联手发论文痛斥,这个排行榜已经被Meta等公司利用暗中操作排名!Karpathy也下场帮忙锤了一把。而LMArena官方立马回应:论文存在多处错误,指控不实。 已经有越来越多的人发现:大模型排行榜LMArena,可能已经被大厂们玩坏了! 就在最近,来自Cohere…

    2025年5月1日
    5700
  • 几行代码,一窥上帝造物!帝国理工开源CAX,引爆人工生命新纪元

    编辑:KingHZ 【导读】人工生命的革命来临!帝国理工的研究人员,开源了名为CAX的硬件加速工具。只需几行代码,就能复刻人工生命实验,模拟速度可提升2000倍,部分表现甚至超过了GPT-4! 人工生命研究的新纪元! 「人工生命」(artificial life,或简写为ALife),旨在模拟生命的行为、特性和演化过程,理解生命的本质,涉及涌现现象、自组织系…

    2025年4月24日
    5400
  • o3全网震撼实测:AGI真来了?最强氛围编程秒杀人类,却被曝捏造事实

    编辑:编辑部 ZJN 【导读】OpenAI新模型全网实测惊艳来袭!o3缩放图像被玩疯,o4-mini速解Project Euler,碾压人类。AI初创CEO说,OpenAI凭此一役已经重回榜首,甚至有经济学家直言AGI已经来临! 昨夜o3的发布,让人不尽感慨:打了这么久嘴炮的OpenAI,这回终于实实在在拿出了点真东西。 史上首次,模型能够用图像思考,视觉推…

    2025年4月18日
    7600
  • 新·摩尔定律诞生:AI智能体能力每4个月翻一番!智能爆炸在即

    编辑:英智 犀牛 【导读】AI编程智能体的能力正在飞速增长,最新研究揭示了这一「新摩尔定律」,如果AI智能体的任务时长继续以每4个月翻倍的速度增长,到2027年它们可能完成长达167小时的月级任务! 编程智能体能完成的任务量,正以爆炸式的速度增长! 而且,这一趋势还在加速。 2024到2025年,它们的任务处理能力每4个月翻一倍;而在2019到2025年,这…

    2025年4月30日
    7700

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信