中关村在线

热点资讯

OpenAI敲响AI安全警钟:GPT-4等AI产品潜在风险高

最近,OpenAI面临着一系列安全团队成员的离职,其中包括了AI策略研究员Gretchen Krueger。Krueger在2019年加入OpenAI,并参与了GPT-4和DALL·E2的开发工作。她于2020年领导了OpenAI首个全公司范围的“红队”测试。然而,在最近的一次辞职声明中,Krueger表达了对OpenAI在决策流程、问责制、透明度、文档以及执行策略等方面存在问题的担忧,并提出应采取措施减轻技术对社会不平等、权利和环境的影响。

此外,在Krueger之后,其他安全团队成员也纷纷选择离职。首先是首席科学家Ilya Sutskever和超级对齐负责人Jan Leike宣布离职。这些离职事件引发了外界对于OpenAI安全问题决策过程的质疑。

尽管如此,OpenAI仍然拥有多个安全团队来负责其风险评估及应对措施。其中最突出的是超级对齐团队,他们的任务是专注于控制尚未存在的超级智能;其次是Safety Systems团队,他们致力于减少现有模型和产品的滥用;最后是Preparedness team, 该团队则负责绘制前沿模型的新兴风险。

值得注意的是,尽管如此,在安全性方面最终决策权仍然掌握在领导层手中。董事会成员包括来自不同领域的专家和高管。

所有这些变化都引起了社区对于AI安全性和公司治理的关注。而这些问题现在对于人们和社会来说非常重要,因为它们涉及到未来发展方向以及由谁来规划等关键问题。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多
说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具