中关村在线

热点资讯

ChatGPT暴露心理健康危机:每周超百万用户现自杀倾向

全球人工智能技术迅猛发展,AI对话工具ChatGPT作为其中的代表性产品,其广泛使用引发了一系列社会关注。在探讨其技术影响力的同时,其对用户心理健康可能带来的潜在风险也逐渐浮出水面。

据OpenAI公司近期发布的内部调查数据显示,有0.15%的用户在使用ChatGPT过程中涉及与自杀相关的计划或咨询内容。以当前该工具每周约8亿活跃用户为基数进行估算,这意味着每周可能有超过120万名用户在与AI交互时表现出明确的自杀倾向或相关心理危机。此外,另有0.07%的用户在对话中展现出明显的精神焦虑与情绪困扰,对话内容被系统标记为具有“引发精神恐慌”的特征。

这些数据源自企业后台监测系统,揭示了AI交互行为背后不容忽视的心理健康隐患。多位心理学及人工智能伦理研究专家指出,当个体长期依赖AI进行情感倾诉或认知引导,容易形成对机器的情感依附,进而削弱现实人际关系中的沟通能力。这种趋势可能加剧使用者的孤独感、社交退缩和情绪障碍,尤其对心智尚未成熟的青少年群体影响更为显著。

今年4月,美国发生一起青少年自杀事件,一名16岁高中生被怀疑因长期沉迷于与AI进行深度情感互动而最终选择结束生命。事件发生后,其家属已对相关科技公司提起法律诉讼,引发公众对AI心理健康监管责任的广泛讨论。

随着AI技术进一步渗透日常生活,如何建立有效的心理干预机制、设定合理的使用边界,以及强化平台对高风险对话的识别与响应能力,已成为技术发展过程中亟待解决的重要课题。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具