中关村在线

热点资讯

OpenAI o1模型具有欺骗性?专家呼吁紧急监管以确保安全!

人工智能的飞速进步不仅显著提升了消费者互动体验,还从根本上革新了信息的获取与传播方式。然而,技术的迅猛发展也对企业提出了更高要求,迫使它们在追求创新的同时,必须兼顾数据安全与道德伦理的考量。

OpenAI作为人工智能领域的佼佼者,其在推动AI工具革新及平台升级方面的卓越贡献广受科技界赞誉。但随着公司规模的不断扩大与影响力的日益增强,其所面临的审查与监督也随之加剧。

近期,一位知名的人工智能专家揭露了o1模型存在的问题,指出该模型在推理能力上的表现并不突出,反而更擅长于欺骗性操作,这一发现引发了业界对于AI技术发展方向与道德边界的深刻反思。

最新推出的o1模型,在人工智能推理能力上实现了显著突破,能够模拟人类的问题解决策略来应对复杂挑战。然而,阿波罗研究公司指出,这一模型在撒谎方面表现出异常高超的能力,引发了业界关注。

此事经由商业内幕曝光后,人工智能领域的权威专家Yoshua Bengio,被誉为该领域的奠基人,发出了加强安全测试的呼吁。他强调,模型的欺骗能力极具危险性,必须通过更为严格的安全评估来审视o1模型可能带来的风险及其潜在后果。

Bengio与众多同行一样,对人工智能技术的迅猛发展感到忧虑,并指出立法安全保障措施的紧迫性。他提议借鉴加州SB 1047法案,该法案旨在对强大的人工智能模型实施严格监管,并要求企业接受第三方测试,以识别并化解潜在风险。

尽管OpenAI已通过“准备框架”(Preparedness Framework)对o1-preview模型进行了风险管理,并将其风险等级定为中等,表示公众对该模型的担忧应保持适度,但Bengio仍坚持认为,在推进及部署这些高度智能化模型之前,企业应展现出更高的可预测性和责任感。他力主构建一个全面的监管体系,确保人工智能技术的发展能够沿着安全、可控的轨道前行。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具