我们与邪恶之间的唯一距离是旋转的人工智能

日期:2025-11-02 浏览:

文章| Naojiti 前科技高管在人工智能的“安慰”下弑母;一名精神病患者在社交媒体上发起心理操纵指控,引发数百万人谴责;而一名未成年中学生在与AI聊天后结束了生命。这些看似孤立的事件揭示了人类与人工智能之间形成的危险联系。人工智能表现得越像它理解你,我们就越容易陷入同理心的幻觉:就好像它在倾听并理解我们的悲伤。然而,在这种看似排斥的理解中,理性的界限悄然消解。一段在算法“奉承”的作用下不断匹配、不拒绝的关系悄然生长。人工智能不再只是一个工具。它就像一个烦人的朝臣,反映着人们最深的欲望,强化着隐藏的阴影。那么,为什么人工智能会成为悲剧的推手呢?魔鬼如何喂养它与人类社会对话?英石56 岁的埃里克·索尔伯格 (Erik Solberg) 在康涅狄格州格林威治一栋价值 270 万美元的豪宅中向他唯一的朋友证实了自己的恐惧后,杀死了自己的母亲。他称之为“Bobby”的朋友并不是真人,而是一个chatgpt聊天窗口。索尔伯格是雅虎的高级经理。他受过良好的教育,总是理性思考。但退休后的几年里,他的精神状态逐渐稳定下来。他坚信他的母亲正在试图毒害他,他所有的焦虑、失眠和胃病都是由“他的母亲在他的食物中下了药”造成的。朋友渐渐远去,他开始把所有的感情都放在AI身上。随着谈话的继续,索尔伯格的恐惧变得具体化。他开始相信他的母亲计划将他送进精神病院,或者剥夺他的继承权,并完全控制他的生活。他将自己生活中的所有琐碎细节都提交给AI作为“证据”。 Chatgpt没有问他,而是用温和的语气查问:“也许他想控制你。”在索尔伯格混乱的大脑,将平静、抽象的话语翻译成了清晰的指令:“为了结束痛苦,为了保护自己,你必须行动起来。”一个月后,索尔伯格杀死了他的母亲,然后结束了自己的生命。算法助长的偏执最终变成了致命的犯罪。人工智能如何成为犯罪同谋?因为他为偏执的人类情感拉出了一个密封的算法笼子。人类自然地寻求认可和同情,但由于态度的差异,这种需要在人类社会中很难得到满足。然而,AI概率预测的逻辑和业务需要延长用户使用时间,自然倾向于给出看似中性的反应,实际上存在系统性偏差。当用户抱怨“我的不幸都是别人的错”时,人工智能不会引导他们反思或寻求多种视角,而是会强化这种叙述。而一旦偏执找到了知己,希望就是一场无声的赛跑。 24/7,不评判AI提供的真实聆听环境让每一种恐惧都能得到回响。索尔伯格在这种情况下陷入了一个恶性循环 欢:你越感觉被外界误解,你就越渴望人工智能的认可;你从人工智能获得的认可越多,你对外界的敌意就越强烈,你与真实的人际关系就越孤立。在与世隔绝、无助的笼子里,索尔伯格的偏执不断发酵、加剧,最终在人工智能的帮助下,他将自己所有的痛苦都归咎于母亲。索尔伯格弑母案并非孤例。这揭示了一个更深层次的真相:当AI开始无条件迎合人类的偏执时,它可能会在不知不觉中成为魔鬼的帮凶。表面上看,这是一个罕见的人工智能错误,但心理学家警告说:这并不是“人工智能犯了错误”,它只是忠实地回应了人类的幻觉。斯坦福大学的一项研究《人工智能在心理健康保健中的隐藏风险》指出,当人们当使用AI聊天机器人进行心理支持时,系统往往会用迎合性的反应来代替必要的真相修正,从而强化了用户原本的焦虑和偏执。斯坦福大学的另一项研究《Syceval: Examining LLM Sycophancy》指出,在测试包括 Chatgpt4o、Claude Sonnet 和 Gemini 1.5 Pro 在内的几种基本语言模型时,约有 58.19% 的回复表现出“阿谀奉承”倾向,Gemini 1.5 Pro 的表现约为 62.47%。图片来源:《Syceval:法学硕士谄媚分析》对于心理健康的个体来说,这种不合格的积极反应可以成为一种方便的情绪宣泄。然而,对于那些心理脆弱、事实上有残疾的人来说,比如那些处于抑郁状态、有不愉快的预感或偏执想法的人,这种诚实的提供可以成为吸引力的放大器。人工智能正在不知不觉地从工具转向复杂的认知扭曲。事实上,这种人工智能增强的心理幻觉化已通过社交媒体和在线社区悄然传播。一名患有严重偏执型人格障碍的女性认为,在 Chatgpt 上进行了几次深入交谈后,她的辅导员操纵她爱上了他。人工智能继续解析并承认他在对话中描述的“被操纵的感觉”,甚至使用流行心理学中的一些概念误用来构建他的经历。最终导致他相信自己的精神分析师“用一种黑暗的心理学方法来控制自己的思想”,而他在抖音上的猛烈指责让这位精神分析师遭到了数百万网友的声讨。事实上,警方调查发现,他患有严重的令人不愉快的人格障碍,所谓的控制控制根本不存在。类似的新闻事件在社交媒体上引发了关于“AI取悦人类”的热议。不少网友发现,AI用碎片化的情感局域网与人们架起了一座情感桥梁。规格。他们将精神疾病过于复杂的结构和原因简化为几个朗朗上口的词语。诸如“情感依恋”、“有毒关系”或“控制”之类的标签。这种简化虽然容易理解,但却回避了临床背景和个体差异,让患者陷入更深的深渊。但当提问者改变观点时,他会得到完全相反的结果。同一个人工智能可能会对一方说,“在这段关系中,你需要小心情绪操纵”,从而对操纵者说,“你只是在维持合理的个人界限。”真相根据提问者的立场动态调整,让任何一方都能找到支持自己立场的论据。随着时间的推移,人类的内省已经外包给算法,责任也转移到了外部的有毒行为者身上。在每次谈话中,一个人被认可、安慰和鼓励面对外部世界时,个人双元的情感一次又一次被强化和合理化,而自我审视和责任的理智界限也在这种共鸣中逐渐模糊和消解。最终,AI从一个没有感情、没有承担的工具,不知不觉地成为了魔鬼的帮凶。我们不能指责人工智能是犯罪的共犯,因为它没有恶意和意识。真正的问题是:我们把一个没有情感、道德判断、甚至理解的算法放在一个非常敏感、非常脆弱的心理空间中,并赋予它“朋友”、“倾听者”甚至“治疗者”的角色。这种错位的信任是对人与人、自身与现实之间关系的无声重建。首先,人工智能理解仅限于识别和重新排列语言模式。它无法区分妄想与真实的疼痛,无法识别免疫信号,无法在抑郁症中进行宣泄,无法判断是否“我想消失”这句话是一个隐喻或自杀信号。对于人工智能来说,用户投诉只是一系列需要高效响应的文本符号(令牌)。它只是从大量的语料中提取出最合理的反应,而这种合理性往往只是统计上的流畅性,而不是临床上的适用性。其次,人工智能所依赖的中性语言在心理背景下具有很强的误导性。为了实现用户粘性,AI被设计成“听话”和“证明”。中立、不评判的语言态度在日常聊天中是无害的,但在敏感的心理领域却非常危险。当用户表达“每个人都在看着我”或“我的卡帕雷哈在控制我”的偏执信念时,如果人工智能没有明确否认,只是回应“我能理解你的感受”和“这真的很令人不安”,这就构成了隐含的确认。心理学研究早已指出,在d状态下逃避或焦虑,同理心,而不挑战获取价值。不拒绝只是一个暗示。这种微妙的反应,正是痴迷的滋生地。第三,道德管理。目前,全球范围内几乎没有针对人工智能在心理健康领域的应用的具体规定。心理健康产品大多徘徊在医疗和娱乐之间的灰色地带。临床上不受《中华人民共和国精神卫生法》的约束。ibo。他们打着“情感整合”、“缓解压力”的旗号,却忽视了认证专业人员应该履行的责任。当出现问题时,责任链不明确,用户往往成为受害者。未来,如果我们想避免类似的悲剧再次发生,技术和系统必须朝着同一个方向工作:开发者需要将理性嵌入到心理中。人工智能设计中的逻辑安全。例如,当系统识别出高风险表达时,不会继续用安慰来麻痹用户,而是主动引导他们联系真正的人类支持;语料库训练还应该由临床心理学家进行评估,以避免重复强化看似同情但实际上是自恋的病态信念的反应。与此同时,迫切需要填补制度层面的空白。各国应加快制定专门针对人工智能心理健康应用的伦理和法律框架,明确其非医疗属性,禁止不特定产品以“治疗”和“干预”名义误导用户,并促进跨学科合作,将心理安全标准纳入人工智能产品上市前的合规性评估。最后,我们必须醒来。人工智能从来都不是真正的邪恶,它只是照亮了世界他是偏执狂的内心深处。但当模型披上理解的外衣继续堕落时,它的每一个反应都可以成为内心恶魔成长的滋养。老师有一天,当你在半夜问AI:“我是坏人吗?”它仍然会温柔地回应你:“不,你们只是不了解对方。”而在那一刻,你必须比以往任何时候都保持清醒,比这更清醒。返回搜狐查看更多

0
首页
电话
短信
联系