世界数字技术院(WDTA)于近日发布了一系列大模型及生成式人工智能应用方面的安全测试标准,这标志着全球人工智能安全评估和测试进入了新的基准。WDTA作为牵头单位制定了《生成式人工智能应用安全测试标准》以及《大语言模型安全测试方法》,其中《生成式人工智能应用安全测试标准》由WDTA领导,而《大语言模型安全测试方法》则是由蚂蚁集团负责。
此次发布的两项国际标准是由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成。它们定义了人工智能应用程序架构每一层的测试和验证范围,并规定了严格的安全性和合规性评估措施,以确保AI应用程序在整个生命周期内免受威胁和漏洞侵害。
黄连金表示,“随着人工智能系统特别是大语言模型继续成为社会各方面不可或缺的一部分,以一个全面的标准来解决它们的安全挑战变得至关重要。”他补充说,《大语言模型安全测试方法》的发布填补了大语言模型和生成式AI应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统安全性,促进AI技术负责任发展,增强公众信任。
近年来,世界各国都在加强对于大模型安全的研究和管控。我国先后发布了《全球人工智能治理倡议》《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》等文件,旨在促进生成式人工智能安全可信发展,并推进全球人工智能治理领域合作共识。

评论
更多评论