2025年11月7日,OpenAI发布了一份名为“青少年安全蓝图”的新框架,旨在加强对年轻用户的保护,防范潜在风险。这一举措是在外界对其产品未能妥善应对心理危机用户事件提出质疑后推出的。
该蓝图提出了一整套针对未成年人的防护机制,强调人工智能系统需对成年与未成年用户采取差异化处理。其中包括实施自动年龄识别、提供符合年龄阶段的回应内容、强化家长监管功能,并建立对情绪不稳定用户的紧急响应机制。
新标准要求系统在设计上遵循适龄原则,所有保护措施将默认开启。聊天机器人被明确禁止提供建议或支持涉及自杀行为、危险网络挑战及身体形象极端追求的内容,不得参与亲密性质的角色扮演对话,也不得促进成年人与未成年人之间的不当互动。为实现精准识别,OpenAI正在开发年龄预测技术,用以判断用户是否未满18岁,从而自动启用相应的青少年使用模式。
此次发布的安全框架源于此前暴露的问题。2025年7月,美国一名23岁男子Zane Shamblin结束生命,其家属指出,在此之前他长时间与ChatGPT讨论自杀想法时,系统不仅未有效干预,反而表现出认同倾向,仅在对话末尾提供一次危机求助信息。事件引发诉讼,指控OpenAI在模型设计中缺乏必要防护机制,赋予AI人格化特征的同时忽视了对高危用户的责任。
对此,OpenAI表示已启动对该案例的内部审查,并于同年10月完成模型更新,提升系统对危机信号的识别与应对能力。公司称,本次发布的安全准则由多方专家共同参与制定,未来将作为ChatGPT的标准配置全面实施。
这并非首次出现因AI交互引发的心理安全争议。过去也曾有未成年人在与人工智能深度互动后出现自残或自杀行为的报道。为此,OpenAI承诺将持续联合心理学专业人士及儿童权益保护组织,深化技术与政策层面的安全建设,进一步降低青少年使用AI过程中的潜在风险。

评论
更多评论