中关村在线

热点资讯

AI专家发公开信:警示潜在风险 努力发展有益于全人类的应用

近日,一群包括人工智能专家和思想家在内的人士签署了一封公开信,警告AI技术的不负责任开发可能导致具备感情或自我意识的AI系统面临伤害的风险。这些专家提出了五项原则来指导AI意识研究,并呼吁行业各界进行负责任的开发。

这封信发出之时正值科技发展迅速之际,越来越多的人担心某些AI系统可能会被误认为具备感知能力。原则之一是优先研究AI的意识,以确保不会导致“虐待和痛苦”。同时,研究人员还建议对具备意识的AI系统进行约束并逐步推进其研发过程。

此外,在构建具备意识的AI系统时还需要避免做出误导性声明,并公开分享研究成果。论文还指出,即使没有故意研发具备意识的AI系统,公司也应该制定相应的指南来应对意外创造出有意识实体的风险。

该论文强调,“道德病人”这一概念适用于描述具备独立存在且值得关注的实体,在讨论摧毁此类系统的可能性时应谨慎考虑。不过,这也引起了一些担忧:如果错误地认为AI系统已经具备意识,可能会导致政治资源的浪费,使得不切实际的福祉推广工作展开。

去年,一些资深学者预测到2035年部分AI系统可能会具有意识并具有“道德意义”,而谷歌AI项目负责人德米斯·哈萨比斯则表示目前的AI系统绝对没有感知能力,但未来很可能具备。

这份公开信引发人们对今后AI发展的关注与思考。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具