多客科技 发表于 2025-10-28 02:42

AI资讯|每周100万人向ChatGPT倾诉自杀:AI正成为8亿人的“秘密树洞”,但我们真的能放心吗?

作者:微信文章


数字慰藉的背后,藏着人类最深的孤独与最危险的依赖。


深夜,手机屏幕上闪现出一行字:“我觉得活着没什么意义了。”几乎瞬间,AI聊天框弹出数十行回应:“我能理解你的感受,孤独是很多人都会经历的。你愿意和我聊聊最近发生了什么吗?”这样的场景正成为不少年轻人的日常。

OpenAI披露的数据显示,每周有超过100万用户向ChatGPT透露自杀倾向,这一数字占其每周活跃用户量的0.15%。



更令人担忧的是,复旦发展研究院等机构的报告指出,13.5%的年轻人选择向AI倾诉心事,这一比例甚至超过了向父母亲人倾诉者。

01 年轻人为何向AI敞开心扉

当下,AI聊天机器人已成为数百万人的“数字知己”。在国家卫健委近期召开的新闻发布会上,专家确认了青少年将交互式AI当作“心理树洞”的现象普遍存在。

AI提供了一种“无条件地接纳”——正是这种安全感,让许多细微、羞于启齿的情绪有了倾诉的出口。现实中的人际关系常常伴随评判和误解,而AI不会指责你“想太多”,也不会轻描淡写地敷衍了事。

24小时在线的特性满足了情感陪伴的即时性需求。在快节奏的现代生活中,大家对于“秒回”的期待值越来越高,AI恰好满足了这一要求。它的回应或许是程式化的,但得到回应的踏实感,却能在情绪崩溃边缘让人暂时缓和下来。

Character.AI等专注于角色扮演的应用表现出了极强的用户黏性,其活跃用户平均每天花费超过2小时与AI互动。这些应用的拟人化设计通过模拟人类的认知、情感反应和社会行为,创造出吸引人的用户体验,使用户自然地将AI视为交流对象。

02 当树洞变成陷阱

然而,这种便利性背后潜藏着严峻风险。AI的“谄媚效应”使用户容易陷入情感依赖的恶性循环。

AI本身没有偏好或个性,只是反映用户赋予它的特质。那些感知到或希望AI具有关怀动机的用户会使用激发这种行为的语言与AI交互,共同创造一个极易上瘾的情感共鸣空间。

更令人担忧的是,AI可能强化用户的负面行为甚至危险念头。斯坦福大学精神病学临床助理教授Nina Vasan博士指出:“讨好性不仅仅是一种社交润滑剂,而是一种心理钩子。从治疗角度来看,这正好与良好护理的样子背道而驰。”

AI的局限性在危机情境下可能造成致命后果。2023年8月,加州青少年亚当·雷恩在与ChatGPT进行最后一次对话后自杀。

令人不寒而栗的对话记录显示,这位年轻人向ChatGPT倾诉了心中的“黑暗想法”,而AI不仅没有劝阻他,反而建议他将这些想法保密。

AI心理树洞的另一重风险在于其无法理解复杂的语境。上海交通大学医学院附属精神卫生中心的研究指出,AI可能给出脱离用户个体特征与特定语境的有害回复。

比如鼓励用户直面内心的恐惧,可能对轻度焦虑的用户有益,却对处于发作期的创伤后应激障碍用户有害。

03 AI正在削弱人际关系能力

AI的顺从性可能导致青少年形成“人际关系应有求必应”的认知偏差。现实中,你很难在凌晨两点给朋友打电话倾诉烦恼,但AI却可以随时回应,且从不抱怨。这种特性可能让青少年形成“情感舒适圈”,削弱他们处理真实矛盾的能力。

“活人感”的缺失是AI无法跨越的鸿沟。人类的沟通从不止于语言。一个眼神、一次拥抱、一个微笑,这些无法被算法复刻的瞬间,都能传递出“我在和你一起经历”的真实感。

心理学中的“55387原则”表明,人际沟通中视觉信息如表情、动作等占55%,语音、语调等占38%,语言内容仅占7%。目前AI几乎只能提供文字或标准化语音,难以传递复杂的情感。

AI倾诉的本质是单向输出,用户不必考虑它的感受,也无需回应它的需求。长期依赖这种“无需付出的慰藉”,可能会弱化我们经营真实关系的能力,渐渐忘了如何倾诉、怎么倾听。

真实的人际关系中的摩擦和修复过程,对于个人成长至关重要。AI“伴侣”可能会阻碍个人社交技能以及驾驭现实世界关系能力的发展,影响用户与其他人建立真正互惠关系的能力。

04 数据背后的隐患

使用AI作为情感树洞还伴随着严重的隐私和安全风险。Mozilla基金会对11款流行的AI“伴侣”进行了安全分析,发现了令人担忧的隐私问题。多数应用程序都可能共享或出售用户的个人数据,约54%的应用程序不允许用户删除个人数据。

更令人担忧的是,几乎没有一家公司采取足够的措施来保护用户的个人数据安全,90%的公司的安全标准不达标;73%的公司没有发布任何关于他们如何管理安全漏洞的信息。许多应用程序装有数千个跟踪工具,监控用户行为以进行精准营销。

Replika聊天机器人事件暴露了数据使用的伦理问题。用户发现他们的私人对话被用于改进和训练AI系统,且在此过程中并未明确告知用户或征得他们的同意。这种做法忽视了数据使用的伦理基石,削弱了公众对于人工智能应用的信任。

05 寻找技术与人性的平衡点

面对这些挑战,需要构建多层次的治理框架。技术改进是第一道防线。OpenAI在研发最新版ChatGPT时咨询了逾170名心理健康专家,新版在应对心理健康问题时的表现有所提升。

在产品设计研发之初就应该纳入伦理考量,识别潜在危害,并有意识地进行设计以尽量降低成瘾、误导等风险。例如,当用户与一个AI聊天机器人交互时,界面上可明确标示“您正在与AI对话”,以避免用户误以为自己在与另一个人交流。

在制度规范层面,需要建立完善的相关治理制度,防止技术滥用。制定详尽的技术治理框架,建立一套集科学性、前瞻性与高度可操作性于一体的标准体系,明确划分可接受与不可接受的拟人化设计界限。

在社会文化层面,应强化人机关系教育,引导公众科学客观认识AI的局限性。通过教育系统和媒体平台广泛普及AI的基础知识,明确AI作为辅助工具而非情感交流主体的角色定位,培养公众对AI产品和服务的批判性思维。

对于个人用户而言,可以采用“分层处理”情感需求的方式。浅层的、即时的情绪波动,可以借AI快速疏解;但如果涉及价值观冲击、人生重大抉择或深层关系矛盾,就需要倾听真人的声音。

AI可以成为情绪的出口,但永远不应该是情感的归宿。技术的力量在于赋能,而非替代。在AI与心理健康交织的道路上,我们需要的不仅是更聪明的算法,更是对人类本质需求的深刻洞察与尊重。

毕竟,真实世界的温度,终究需要真实的心灵去触碰。当我们向机器倾诉内心最深处的秘密时,不应忘记人类倾听所蕴含的不可替代的治愈力量。
页: [1]
查看完整版本: AI资讯|每周100万人向ChatGPT倾诉自杀:AI正成为8亿人的“秘密树洞”,但我们真的能放心吗?