中关村在线

热点资讯

OpenAI发布青少年安全蓝图强化未成年保护

2025年11月7日,OpenAI发布了一份名为“青少年安全蓝图”的新框架,旨在加强对年轻用户的保护,防范潜在风险。这一举措是在外界对其产品未能妥善应对心理危机用户事件提出质疑后推出的。

该蓝图提出了一整套针对未成年人的防护机制,强调人工智能系统需对成年与未成年用户采取差异化处理。其中包括实施自动年龄识别、提供符合年龄阶段的回应内容、强化家长监管功能,并建立对情绪不稳定用户的紧急响应机制。

新标准要求系统在设计上遵循适龄原则,所有保护措施将默认开启。聊天机器人被明确禁止提供建议或支持涉及自杀行为、危险网络挑战及身体形象极端追求的内容,不得参与亲密性质的角色扮演对话,也不得促进成年人与未成年人之间的不当互动。为实现精准识别,OpenAI正在开发年龄预测技术,用以判断用户是否未满18岁,从而自动启用相应的青少年使用模式。

此次发布的安全框架源于此前暴露的问题。2025年7月,美国一名23岁男子Zane Shamblin结束生命,其家属指出,在此之前他长时间与ChatGPT讨论自杀想法时,系统不仅未有效干预,反而表现出认同倾向,仅在对话末尾提供一次危机求助信息。事件引发诉讼,指控OpenAI在模型设计中缺乏必要防护机制,赋予AI人格化特征的同时忽视了对高危用户的责任。

对此,OpenAI表示已启动对该案例的内部审查,并于同年10月完成模型更新,提升系统对危机信号的识别与应对能力。公司称,本次发布的安全准则由多方专家共同参与制定,未来将作为ChatGPT的标准配置全面实施。

这并非首次出现因AI交互引发的心理安全争议。过去也曾有未成年人在与人工智能深度互动后出现自残或自杀行为的报道。为此,OpenAI承诺将持续联合心理学专业人士及儿童权益保护组织,深化技术与政策层面的安全建设,进一步降低青少年使用AI过程中的潜在风险。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具