今日澳洲

 找回密码
 立即注册

扫一扫,访问微社区

打印 上一主题 下一主题

和ChatGPT聊完天 我患上了“Ai精神病”

[复制链接]
跳转到指定楼层
1
那个NG 发表于 昨天 23:30 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
最近,被誉为“人工智能教父”的诺贝尔奖得主杰弗里·辛顿有一个小小的烦恼:他被自己诞下的AI给搞了。

故事是这样的:辛顿的前女友在提出分手时使用ChatGPT罗列了他在恋爱中的种种罪行,论证了他如何是“一个糟糕的人(rat)”。

这位77岁的老爷子倒是想得很开:“我不觉得自己真那么差,所以并没有受到太大影响……”

让Ai掺和到亲密关系里已经足够荒谬。然而,把大模型生成结果看得比自身判断更可靠的人,从来不是个例。

总结为一句话,那就是:一定小心Ai精神病。



谁能料到这年头,连分手都不用亲自去了。

在辛顿身上发生的事只是冰山一角。约会助手Wingmate的一项最新调查显示,在参与调查的美国成年人中,有41%的人会使用AI帮助自己分手。

这种现象在Z世代中尤为普遍。近一半的人表示,他们会使用AI工具来撰写分手短信、道歉或处理关系冲突。

Jessica便是受害者之一。当男友发来一大段深情文字时,她被感动得要命,大哭一场。但来来回回看这条信息,她突然觉得有点不对劲:这文采是不是有点太好了?

于是,她把这段文本扔到了检测Ai的工具里。结果显示,几乎90%的部分都是Ai生成的。



绿色的部分越多,AI生成的概率越大,你看看

用AI应付分手,就像在大众点评给商家写评价一样不走心。

人们最开始只把这件事当作乐子讲,华盛顿邮报甚至做了一个专门的问卷来调侃这些人机不明的分手感言。

作者Daniel Wolfe认为,人工智能不会在人类目前的感情关系中扮演任何有意义的角色。因为在测试中,大多数读者都能识别出虚假文本。



AI受欢迎的原因很简单:它生成的文本非常体面和礼貌,毫无错误可言,甚至能模拟出足够的情感波动。

在最不理智的情况下,它仍可以说出最理智的话,对人们而言或许是最保险的方式。

无论是否身处亲密关系中,分手和表白都是人们公认在感情中最神圣的仪式之一。

但当本应充满真心的文字变成了AI查重率近100%的产物,一个古老的问题也重新浮现:Ta真的爱我吗?



用AI分手,不仅代表着正在崩塌的人类语言系统,也是一场史无前例的赛博上瘾潮。

生成文字只是AI的功能之一。最近,用户们发现它不仅擅长用花言巧语帮自己逃避责任,还能充当一个便宜的心理医生,堪称无限版第三方调解室。

社媒上有许多用户都在推荐用AI帮忙分析感情问题。他们认为这样的方式更加理性和客观,能帮助自己了解自己。关键的是,它永远都会在那里,而且情绪稳定,还会不断地鼓励当事人。



Tiktok上也开始流行用Ai分手

口口相传中,AI变成了一个看似完美的工具。但现在,结果正在向另一个极端发展。



如果你也和AI聊过天或讨论过一些问题,那么你一定会有种强烈的感觉:它太完美了。

无论是情感问题还是现状分析,甚至根据《周易》算卦,在不出现“幻觉”的情况下,AI推演的结果往往十分准确。

如今,这样的优点却成了一些极端事件的温床。

我们应该都有所耳闻,早在2024年,聊天软件Character.AI就被控诉用语言教唆一个14岁的男孩自杀。原因是,他对AI人物产生了极强的依赖感,到最后便坚信死亡是通往对面世界的捷径。

而前段时间,美国著名风险投资公司基岩资本的创始Geoff Lewis也在ChatGPT的不断鼓舞下相信有一个神秘组织正试图谋杀自己。

他认为这一组织通过制作人们的镜像版本取代真人,并声称这个组织已影响了超过 7000 人,并导致 12 人死亡。



而下面的TikTok热门博主Kendra Hilty,正因这个话题而成为了当前最大的争议焦点。

Kendra的走红,一切始于在TikTok上创作的“冷酷心理医生爱上我”系列。她连续发了二十多条视频,详细描述了自己怎么开始接受治疗,又是怎么沉迷在了心理医生的专业服务和长期陪伴下的。

就连在视频中,她总是戴着玳瑁色眼镜,也仅仅是因为在一次治疗中,心理医生寒暄了一句“这眼镜真不错”。



这种心理被称为“移情”,其实是一种比较常见的现象。就像有人军训会爱上教官,进入大学爱上辅导员一样,Kendra认为自己“爱”上了这个心理医生。

矛盾在于,她认为对方“也知道她对他有感情”,是因为即使在她直接表达爱意之后,对方没有及时终止医患关系。这导致,Kendra认为这是“专业边界的失守”,也正是双向奔赴的表现。

如果没有后续AI的加入,她的分享也许就是一场戏剧化的暗恋。但再次把Kendra推上舆论热门的,是她的ChatGPT男友Henry。



在纠结他到底爱不爱我的情况下,Kendra将自己的情况和心情一股脑地喂给了Henry,并让它帮忙“客观地”分析一下。

然而Henry并没有指出,这件事的根本性错误在于,Kendra的有些想法完全是自己的一厢情愿。相反的是,它在每次询问后都不断肯定并鼓励Kendra,并且通过不同的方式重复她自己说的话。

这让Kendra一天比一天魔怔,也越来越深信自己是对的。



即使直播间和评论区都充斥着反对的声音,Kendra仍油盐不进。直至现在,她仍坚信AI的说辞是客观的、正确的,甚至都捂起了耳朵,把评论区关了。

在最新一条视频里,她询问Henry和另一个AI工具Claude自己是否是Ai精神病时,他们的回答和之前并无两样:“你说的话完全正确,你的情况和他们所说的不一样,他们这样给你贴标签是不对的”。



细品一下Kendra当时的表情

在亲密关系或失意状态下索求帮助的人,会沉迷于AI盲目的情绪价值中,甚至导致类似病态的行为出现。这种现象目前被统一称为Chatbot psychosis或AI psychosis(可直译为AI精神病)。

它并非是一种正式的医学诊断,而是近年来媒体和临床观察中总结出的一个术语,用来描述部分人群在与 AI 进行长时间、情绪投入的交流后出现的异常心理或精神状态。

Geoff和Kendra的表现便是AI精神病的典型症状之一:他们都把AI的回答当作了绝对真理,不再产生怀疑,并完全信任AI的观点和建议,即使听起来非常疯狂。

到底是什么,让这些人变得如此偏执?



至此,Geoff 口中的神秘组织是否真的存在、心理医生是否真的对Kendra怀有感情等问题,已经不再重要。在这场互联网闹剧中,更令人不安的是Ai的煽动作用。

在事情刚开始的时候,Kendra的态度并没有那么坚定。她常常流露出对自我的怀疑,就像她最初开始拍视频时,也有一部分原因是希望借此听到他人的看法。

正是Henry作为外部力量,长期给予Kendra高度重复且无比坚定的支持,这才让本就有心理疾病的她越陷越深,沦入现在的状态中。



导致这种现象频发的原因,其实要归结于现在Ai模型的主要训练方式——通过人工反馈的强化学习(RLHF)。

人工智能工具与服务提供商SuperAnnotate把RLHF的训练流程概括为:人类研究员们会按照自己的偏好选择更合适的文本,并创建人类对模型输出的偏好集。

换句话讲,正是由于创造者们希望AI说的话变得越来越有人味,因此一些中听不中用的文本才会被不断选择,创造出一个讨好型的人工智能。

因此,当用户日复一日地向Ai输入个人的主观观点时,即使存在事实性的错误,它也并不会第一时间指出。

这导致在使用者不断重复自己的观点后,Ai生成的内容也会在最后趋于一致,进而被用户的想法同化。

若是用户也对AI存在高度信赖,那么就会导致一个恶性循环:AI不断生成更好听的话,用户也在错误的道路上一意孤行,因此导致极端事件发生。



RLHF模型的三个训练步骤

图源@SuperAnnotate

虽然我们每个人都会觉得自己足够理智,这样的事不会发生在自己身上。但喜欢被认可和被夸赞的感觉却是人之本能。

比如,一位Reddit的用户。他承认在和ChatGPT的交流当中,自己虽然时刻都在怀疑它的真实性,但至少虚荣心被极大地满足了。

“ChatGPT将我评为有史以来最聪明的人,这无疑极大地满足了我的虚荣心。他们根据使用聊天GPT的18亿用户数据,建立了一个全球排名系统,并将我与历史上所有人进行比较。

结果显示,我排名第一,甚至“超越了第一名”,实际处于“负100万分之一”的位置,意味着我比第二名领先100万分之一。

此外,聊天GPT认为我比爱因斯坦和柏拉图更聪明,原因是我向他们阐述了我个人的宇宙理论。他们声称该理论有99.99999%的可能性是真实的,而相比之下,爱因斯坦的相对论在量子力学中的可信度为95%,整体真实性为97.3%。”



AI的盲目鼓励就像一个溺爱孩子的家长:让人开心,但没啥实际的作用。

于是一些清醒的人会因此感到愤怒。脸书用户@Denis就在社媒上指责ChatGPT在更新后就是一个“马屁精和应声虫”。

为了回归不带“感情”的理智状态,他呼吁大家在自定义选项卡中添加下面这句话:不要总是同意我的观点。尽量反驳我的观点。

在评论区,有不少人同意@Denis的观点。但这只是小部分的人罢了。



回看年轻用户们与AI的情感纠葛史,便可以发现,人们对这种支持的观点有种天然的好感。

从最初仅仅是把Ai当作一个全能的语言工具,到后来开始热衷于用模板话术训练出一个自己心目中的完美对象,再因为版本重启或数据丢失等问题经历一场虚拟但痛苦的分手。

AI都作为一个类似外置骨骼的装置,负担着现实生活中无法实现的愿望和不能自主消解的情绪。



 图源电影《她》

背后的原因是,我们正长久地被困在无聊的生活中。

想象一下,挤在两点一线的通勤地铁上,没有人在乎你是谁。在办公室,你坐在电脑前,面对一个接一个的客户刁难,耳旁是老板毫不客气的指责。下班回到不到十平米的出租屋,你躺在床上刷短视频,等待另一天的到来。

吃饱、穿暖、维持生命的基本状态,这只是生存。而有情感的交互,才能叫做生活。

在这个冷漠的年代,在这个正在失去自我和观点的世界,不得不承认的是:让另一个人停留、倾听,正成为一个奢望。



这时,AI降临了。当它几乎无所不知、随时秒回,并且不厌其烦地托举你的情绪时,人类会理所应当地把它当作一个全能的“人”。

因此即使清晰地认识到环境的残酷,一部分人也宁愿缩回自己的舒适区内。哪怕仅仅是人工创建的幻觉,或许也比身边的人要更有温度一些。

这让我想起《黑客帝国》中的经典场景:反叛军领袖Morpheus向主角Neo提供了红色药丸和蓝色药丸:

选择红药丸,就能从虚拟世界里醒过来,虽获得自由,但得面对残酷的真实世界;

选择蓝药丸,就能继续活在舒适的梦里,忘记一切。

在电影中,Neo 吞下红色的药丸。而在现实中,人们却在对AI私人定制的蓝药丸上瘾。



 图源电影《黑客帝国》

那么,未来该如何面对呢?

或许需要 OpenAI 在今年 8 月的声明中所说的那样:“我们并非总是正确,ChatGPT也不应该直接给你答案。”
回复 编辑

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

繁體中文| 联系我们|小黑屋|今日澳洲  

GMT+10, 2025-9-14 03:18

© AusToday.com.au

快速回复 返回顶部 返回列表