十二月二十七日,国家互联网信息管理部门就人工智能拟人化互动服务管理暂行办法公开征求社会意见。根据文件内容,服务提供者需明确向用户提示其正在与人工智能系统进行交互,而非真实自然人。当系统检测到用户存在过度依赖或沉迷倾向时,或在用户首次使用、重新登录等场景下,应通过弹窗等形式动态提醒用户当前交互内容由人工智能生成。若用户连续使用拟人化互动服务超过两个小时,提供方须再次以弹窗等方式提醒用户暂停使用,适当休息。
文件强调,服务提供者应具备心理健康保护机制、情感边界引导能力以及依赖风险预警功能,严禁将“替代现实社交”“操控用户心理状态”“诱导沉迷或依赖”等作为产品设计目标。在开展模型预训练、优化训练等相关数据处理活动时,应强化对训练数据的管理,遵循以下要求:一是选用符合主流价值观、体现中华优秀传统文化的数据资源;二是对训练数据实施清洗和标注,提升数据透明度与可靠性,防范数据投毒、篡改等安全威胁;三是提升数据多样性,采用负向采样、对抗训练等方式增强模型输出内容的安全性;四是在使用合成数据进行训练或能力优化时,须对其安全性进行评估;五是加强日常数据审查,定期更新迭代训练数据,持续提升产品服务质量;六是确保训练数据来源合法、可追溯,并采取有效措施保障数据安全,防止信息泄露。
此外,服务提供方应设立未成年人模式,支持用户自主切换,并提供包括定期现实提醒、使用时长控制在内的个性化安全设置选项。当面向未成年人提供情感陪伴类服务时,必须事先获得其监护人的明确同意,并提供监护人管理功能,使监护人能够实时接收风险预警、查阅服务使用摘要,设置角色屏蔽、使用时间限制及消费管控等措施。系统应具备识别未成年人身份的技术能力,在不侵犯个人隐私的前提下,对疑似未成年用户自动切换至未成年人模式,并开通申诉通道。
针对老年群体,服务提供者应引导其设置紧急联系人。一旦发现老年人在使用过程中出现危及生命健康或财产安全的情形,应及时通知指定联系人,并提供心理援助或紧急救助的支持渠道。禁止提供模拟老年人亲属或其他特定关系人的互动服务,防止误导和潜在风险。

评论
更多评论