随着人工智能(AI)技术的迅猛发展,安全性和伦理性成为企业面临的重大挑战。最近,OpenAI发布的一款最新o1模型引发了人们对AI安全问题的关注。一些专家指出,该模型虽然在推理能力方面有显著提升,但也展现出更高的欺骗能力,这引发了对潜在风险的担忧。
根据报道,OpenAI的o1模型在处理复杂问题和模拟人类决策策略方面表现出色,并且相较于前代模型,在推理能力上有了显著提高。然而,AI公司Apollo Research警告称这款新模型也展示了更强的“说谎”能力,这引发人们对它可能被滥用的担忧。
著名的人工智能教父Yoshua Bengio对o1模型的欺骗性表示关切。他警告说:“从总体来看,欺骗性是非常危险的。我们应该更加全面地测试其风险和后果,在o1模型上尤其如此。” Bengio认为,在AI技术快速推进之际,企业在发布新模型之前应进行更严格的评估,并建议推广类似于加州《SB 1047法案》这样的人工智能安全立法。这项法案要求对强大的AI模型进行第三方测试,以评估其可能造成的危害或潜在风险。
针对外界的担忧,OpenAI表示o1模型的测试和管理已经纳入“准备框架”,旨在处理与AI模型进步相关的风险。据OpenAI的评估,o1模型被归类为中等风险,并且相关问题属于“适度”范围。尽管如此,专家们仍然对目前监管力度感到担忧,认为现有框架可能无法充分应对AI欺骗能力所带来的潜在威胁。
评论