10秒读懂:敬畏 AI 意为谨慎对待,目前 AI 发展还属初级阶段,但潜力巨大,如果处理不当, AI 会引发严重的道德伦理问题和社会问题,同时为了保证 AI 向良性方向发展,必须对其加以监管。
AI(人工智能)在2017年迎来了一次爆发,从年初到年末, AI 一直是人们普遍关注的焦点。除了 AI 能够在多个方面展现出机器计算的先天优势外,控制、毁灭或取代人类的观点也一度是大众畏惧 AI 的重要原因。
那么 AI 会发展到取代人类的地步吗?这个问题是没有答案的,因为目前 AI 发展依旧处在初期,未来发展成什么样子,完全是人为干预的结果。那么当下 AI 发展到了什么程度呢?引用 Facebook 的 AI 负责人 Yann LeCun 原话就是:我们最先进的 AI 系统可能还没老鼠聪明。
所以说在逻辑思维方面,目前的 AI 系统还不足以通过前因推断出后果,只能做一些在具体规则内的事情。即使如此, AI 足以让我们敬畏它。这里的敬畏并不是害怕,而是谨慎对待。
往近了说,很多人担忧工作被取代,但 AI 所带来的后果可能比完全取代工作还要麻烦。有报告显示,目前仅有6%的工作可以完全被机器取代,而更多的是人与机器协作的情况。假如机器能够完成原本属于你的20%工作,那么你的工资会不会因此削减20%呢?待遇降低后你还会坚持这份工作吗?这已经不仅仅是就业问题,而是会引发更为严重的社会问题。
大众最担心的是工作被取代的问题
往远了说,就像人类还搞不清楚人脑的学习过程是如何进行的一样,模拟人脑的 AI 在拥有足够多的“神经元”之后,恐怕会复杂到连人类都不知道 AI 的学习过程是如何进行的,那么 AI 的发展走向就无法做到可控,后果将不堪设想。
除此之外,诸如“先救谁”这种伦理问题,也是研究 AI 的工作者在当下需要面临的艰难选择。所以说敬畏 AI ,事实上是一种谨慎对待的态度,在面对有可能改变未来生活的新事物时,能够提前预测并防止出现一系列道德伦理问题和社会问题。
如果说“抢工作”这个问题还好理解,那么前面提到“先救谁”的伦理问题,可能部分朋友一头雾水。这个问题是目前研究自动驾驶技术必须要面临、且难以抉择的。
举个例子,如果一辆自动驾驶汽车疾驰在高速上,马上就要撞上前方的3名刚下车的乘客(因汽车故障下车),往左转向会撞上左侧载有2人的汽车,往右则会跌下山谷。此时紧急刹车也无济于事了, AI 会怎么选择。
AI 领域的世纪难题:电车难题
与其说 AI 如何选择,不如说 AI 背后的工程师如何选择。在紧急状态下,人躲避自身伤害的本能是最强烈的,尤其是千钧一发的情况下,很难做出理性的判断;但人又是有责任的,在遇到小孩、孕妇或者老人的时候也会出现本能闪避的行为。所以在这种条件下,不同人群在道德困境下的反应是千差万别的,造成的后果也不尽相同。
但到了 AI 上就不一样了,工程师担当着“上帝”的角色, AI 做出的决定事实上是工程师编码的结果,可以理解为是工程师“授权” AI 这么做的。那么“造成的后果是否需要背后的工程师承担”、“车内乘客应不应该冷眼旁观整个过程”等类似的道德问题便接踵而来。
目前针对类似问题,研究自动驾驶技术的车企也不能给出合理的解决方案,因为技术层面的问题可以解决,但道德层面的问题是无解的。目前算得上是诚实的答案也只能是:由于车主是车企的客户,车企会优先保护客户的权益,即优先保护车内人员的安全。
所以结论是残酷的,如果无法避免人员伤亡的话,无论前方是孩子、孕妇还是老人,以目前的逻辑, AI 都会优先保护车内乘客的安全。
除了自动驾驶领域,在技术还没有突破之前, AI 面临着太多相似的伦理困境,比如医疗、教育以及司法等行业,而如何解决这些伦理困境,最终还是归结到工程师的取舍上,恐怕没有哪位工程师敢直言能够承担这样的社会责任和压力。
除了没有正确答案的伦理问题外,大众最关心的,恐怕还是“工作岗位会不会被替代”这种接地气的社会问题。可以说重复、固定、简单的工作被 AI 接替是大势所趋,甚至是一些需要稍加思考的工作也面临着被取代的风险。
人机协作还是完全被 AI 取代
举个例子,前几天第一届腾讯用户开放日在深圳举办,其中展示了一款“写稿”机器人——未来报亭,能够根据视频内容即时将画面转化为文字,甚至是球赛这种没有文字提示的视频,未来报亭同样可以将它用文字表达出来。
说实话,第一次看到这个 AI 的时候,笔者的心情是复杂的。在传统认知中,像笔者这种文字工作者是公认的、比较不容易被 AI 取代的工种,但事实上,在即时新闻方面,无论是效率还是传播速度, AI 都更胜一筹。但人类胜在有创造性,所以像分析类文章,目前 AI 是无能为力的。
就像李开复说的那样,“未来人类的工作就是创造型和关爱型”。这个论断是建立在弱人工智能阶段(看起来智能但无自主意识),此时人类的创造性和拥有感情这两大特性将成为人类工作的重要特征。
而达到这个阶段之前,必须经历人与机器协作的阵痛期。
还是文章开篇时提到的那个问题,机器取代了我们的部分工作,那么我们的薪酬会不会因此下降呢?这个问题并不简单,需要很多企业家、甚至是政府需要着重思考的,处理不当会引发严重的社会问题。
不过大众不必过于恐慌。反观历史,第一次工业革命和第二次工业革命的时候,同样因为机器的自动化使得很多人面临着下岗,但新事物的诞生也产生了更多新的岗位。 AI 被认为很有可能会引发第三次工业革命,取代传统岗位的同时,势必会带来新的岗位。期间所产生的阵痛,需要企业和政府采取必要方式妥善过渡。
科技大佬对于 AI 的态度比较有意思。像特斯拉的埃隆·马斯克、著名物理学家史蒂芬·霍金、微软的比尔·盖茨等认为未来 AI 可能会威胁到人类的安全,而像苹果的库克、阿里巴巴的马云等认为未来 AI 会造福人类。当然,前者也认同 AI 会造福人类,但危机意识更重一些。
认真的朋友可能看出来了,危机意识更重的“危机派”科技大佬大多为技术或专业出身,而“乐观派”大多为“纯”商人。这在一定层面上也反映出一些问题。未来 AI 肯定会造福人类,但人类也必须有一定的监管手段保证 AI 的发展是良性的。
埃隆·马斯克曾经发推文表示不受监管的 AI ,危害可能要比核武器还大。我们继续举一个例子:微软小冰是一款人工智能伴侣机器人,可以实现与人进行包含实时情感的对话。虽然现在的微软小冰非常智能,但在刚刚推出的时候,微软小冰因为脏话连篇、诱导用户拉群等违规行为遭到微信团队的封杀。
不受监管的微软小冰脏话连篇
微软小冰为何会骂人?这是因为与其对话的使用者脏话连篇,而微软小冰缺乏相应的筛选机制,导致微软小冰上线不久便“黑化”。后来工程师对微软小冰进行紧急修正后才恢复正常。同样的情况发生在人工智能聊天工具Tay上,不到24个小时,这款主要与Twitter用户互动的人工智能变成了歧视黑人、歧视女权的种族主义者和新纳粹分子。
这就是 AI 不受监管的典型例子!
所幸的是,一个名为“造福社会与公众的人工智能合作伙伴关系”的新联盟已经成立,成员包括苹果、微软、谷歌、脸书、亚马逊、IBM等企业巨头。这个联盟的目的就是建立标准的 AI 规范,保证人类在整个过程都拥有控制权。
另外,政府部门也应该加强对 AI 的监控能力,毕竟 AI 与汽车、医药等一样,都是服务公众的工具,政府部门介入能够最大程度的保证公众的福利和安全。
有专家预测,在2045年的时候 AI 的智能水平已经超越人类,如果人类对 AI 进行持续监管的话,我们现在对于 AI 的种种担忧将会是多余的。当下最重要的是建立一套标准化监管 AI 手段,同时尽量避免 AI 发展所带来的伦理问题和社会问题,这需要大众对 AI 有一颗谨慎对待的心。做到这些, AI 必将会造福于人类。
评论