OpenAI高级顾问布伦戴奇日前离职,并公开发出警告,没有公司为AGI到来做好准备,包括OpenAI。AGI通常指的是一种具备广泛智能的人工智能系统,能够像人类一样在多种不同的领域和任务上进行学习、推理和解决问题。
布伦戴奇此前花了六年时间帮助制定公司的人工智能安全计划。他指出,在OpenAI,他的研究和出版自由受到越来越多的限制。他强调,在人工智能政策讨论中需要有独立的声音,不受行业偏见和利益冲突的影响。在为OpenAI的领导层提供内部准备方面的建议后,他认为自己现在可以从组织外部对全球人工智能治理产生更大的影响。
布伦戴奇的离职也可能反映出OpenAI内部更深层次的文化分歧。许多研究人员加入OpenAI是为了推进人工智能研究,而现在他们却发现自己身处一个越来越以产品为导向的环境中。内部资源分配已成为一个热点,有报道称,莱克的团队在最终解散前曾被剥夺了用于安全研究的计算能力。
尽管存在这些摩擦,但布伦戴奇提到,OpenAI提出将提供资金、和早期模型访问权限,支持他未来的工作,没有任何附加条件。这可能表明OpenAI仍然在努力推进AGI的发展,并希望在未来取得突破性进展。然而,这也暴露出了公司在安全性方面存在的问题,并引发了外界对于AGI发展所带来的潜在风险的关注。
评论