中关村在线

笔记本

进击的英特尔:五大前沿创新领域再斩硕果

在前沿科技的创新道路上,英特尔近年来取得了不小的突破。

上周,2020年研究院开放日活动中,英特尔展示了其在集成光电、神经拟态计算、量子计算、保密计算、机器编程五大前沿创新领域的成果。这些前沿领域虽然距离我们这些普通人还很远,但它们已经逐步从实验室里走出来,潜移默化地开始影响着我们的生活。

·释放数据价值的重要一环:集成光电

近年来,英特尔在向数据服务型公司转型的背景之下,频繁提到“释放数据价值”这一理念。而集成光电这种将光科学与大规模芯片生产的成本效益相结合的前沿技术,其实就是释放数据价值的重要一环。

2018年底,英特尔明确了六大技术支柱。其中,连接作为单独的一环充分体现出了它的重要性。而近20多年来,英特尔研究院一直肩负着提升连接的使命。如从单链路多IO协议架构演进出来的Thunderbolt和USB TYPE-C,就是最为典型的连接领域的案例。

不过,虽然英特尔在不断改进并提升电气I/O性能,且成效显著,但不得不承认的是,一方面电气性能扩展速度依然较慢,另一方面则是业界正在不断靠近I/O功耗墙和I/O带宽鸿沟,而这将严重阻碍性能扩展。

因此,英特尔希望借助光互连来解决这一问题。所以集成光电是什么?

简单来说就是让业界能够重新构想通过光来连接数据中心网络和架构,以解决I/O性能提升缓慢的技术。而解决了I/O性能瓶颈,也就意味着能够更大程度的释放数据价值,让人们更加快速、有效的收集数据、解析数据、利用数据。

随着越来越多的“物”接入互联网,以数据为中心的工作负载每天都在大规模增长,而服务器间的数据迁移不断增加,给当今网络基础架构带来了巨大挑战。传统的电气I/O性能迅速接近极限。而计算带宽需求不断增长,电气I/O规模却无法同步增长的背景之下,I/O功耗墙瓶颈愈加凸显。

因此,在服务器中引入光互连I/O,从电气I/O迁移到光互连I/O,就是打破这一限制的最佳手段。而近年来,英特尔将光学技术与硅技术集成起来,开发出了硅光子技术,让光互连具备硅的高产量、低成本等属性。

在本次研究院开放日活动上,英特尔展示了在关键技术构建模块方面的重大进展。这些构建模块是英特尔集成光电研究的基础。它们包括光的产生、放大、检测、调制、互补金属氧化物半导体(CMOS)接口电路以及封装集成。

而其具体技术包括:

微型环调制器(micro-ring modulators):传统的芯片调制器占用面积太大,并且放置于IC封装的成本很高。英特尔开发的微型环调制器,将调制器尺寸缩小了1000倍以上,从而消除了将硅光子集成到计算封装中的主要障碍。

全硅光电检测器(all silicon photo detector):数十年来,业界一直认为硅实际上没有光检测功能。英特尔展示的研究结果证明事实并非如此。这一突破的一大好处就是让成本更低。

集成半导体光学放大器:由于我们致力于降低总功耗,因此集成半导体光学放大器必不可少。该设备通过使用与集成激光器相同的材料实现。

集成多波长激光器(Integrated multi-wavelength lasers):使用一种称为波分复用(wavelength division multiplexing)的技术,可以将来自同一激光的不同波长用在同一光束中传输更多数据。这样就能使用单根光缆来传输额外数据,从而增加了带宽密度。

集成:使用先进的封装技术将硅光子与CMOS芯片紧密集成,可实现三大优势:(1)更低的功耗、(2)更高的带宽和(3)更少的引脚数(pin count)。英特尔是唯一一家在与CMOS芯片紧密集成的单一技术平台上,展示了将多波长激光器、半导体光学放大器、全硅光电检测器以及微型环调制器集成到一起的公司。这项研究突破为集成光电技术的扩展奠定了基础。

在此之前,除了英特尔之外,尚未有其它公司展示过将集成激光器、半导体光学放大器、全硅光电探测器和微型环调制器集成在一个与CMOS硅紧密集成的单个技术平台上。因此在集成光电领域,英特尔走在了业界最前端。

·让电脑像人一样思考:神经拟态计算

一直以来,我们习惯了计算机的“大尺寸”、“大功耗”。但如果看了下面这个例子,你会对自己的认知产生怀疑。

最新竞速无人机的板载处理器要消耗大约18瓦的电力,充电一次只能飞行10-20分钟,电力消耗过高限制了飞行时间。而利用最先进的AI技术,人机也只能勉强以步行的速度通过预先的编程在几扇门之间自主飞行。但前提是它们必须经过深度学习的集中训练才能完成任务。

相比之下,玄凤鹦鹉是一种小型鸟类,其大脑仅两克重,能耗仅50毫瓦。玄凤鹦鹉的体重比无人机处理器轻20倍,能耗低350倍。在这种微薄的能耗下,玄凤鹦鹉的飞行速度可达每小时22英里,还能在飞行过程中寻找食物,与其他鹦鹉交流。它们甚至还会说少量人类的词汇,还有报道称,玄凤鹦鹉学会了用杯子进食。

一个是18瓦的电力消耗,一个是50毫瓦的功耗。机器和生物在能耗比方面的差异显而易见。

受到这样的启发,英特尔从2015年开始以现代神经科学理解作为灵感开发了一种新型计算机架构,它可以模拟大脑的计算方式,利用数据连接、数据编码和电路活动中所有形式的稀疏(sparsity)处理庞大的实时数据流。这项技术就是神经拟态计算。

2017年,英特尔发布了首款神经拟态芯片Loihi用于研究,它包含128个小核心,每个小核心有1000个神经元硬件,模拟多个“逻辑神经元”,相比AI训练的通用芯片能效提升1000倍。

2019年,英特尔发布了代号为“Pohoiki+Beach”的神经拟态系统,包含64块Loihi研究芯片,拥有800万个神经元。

2020年3月,英特尔展示了Loihi在存在明显噪声和遮盖的情况下学习和识别危险化学品的能力,仅需单一样本便可学会识别每一种气味。同时,英特尔公布了“Pohoiki+Springs”数据中心机架式系统,在5台标准服务器大小的机箱中集成了768块Loihi芯片,拥有1亿个神经元,大约一个小型哺乳动物大脑的水平。

此外,随着联想、罗技、梅赛德斯-奔驰和Prophesee的加入,神经拟态计算技术正在稳步成熟,并将从实验室走向产业应用。

事实上,神经拟态计算已经发展了三十多年,但在英特尔介入并设立神经拟态研究社区之前,几乎没有资料显示神经拟态解决方案在数据上超过了最先进的传统解决方案。英特尔的Loihi改变了这一局面,其功耗比传统解决方案低40-100倍。这表明,未来的神经拟态设备,比如无人机,将可以像玄凤鹦鹉一样实时解决规划和导航问题。同时,英特尔神经拟态技术最让人惊艳的地方在于和通用CPU以及GPU相比,神经拟态计算不仅能够更快速、更精准,同时大幅降低能耗。神经拟态计算为未来的AI技术注入了新的想象力。

·通往未来的钥匙:量子计算

量子计算是通往未来的钥匙,其独特性决定了它拥有非常强大的强力。但在这些潜力充分释放出来之前,科学家们需要解决诸多棘手问题。

其中,可扩展性是量子计算的最大难点之一。

在这一方面,英特尔推出了第二代低温控制芯片Horse Ridge II,它支持增强的功能和更高集成度,以实现对量子系统的有效控制。新功能包括操纵和读取量子位状态的能力,以及多个量子位纠缠所需的多个量子门的控制能力。

对于量子计算而言,单纯的增加量子位的数量,而不解决由此产生的布线复杂性问题,对于量子计算发展并无好处。Horse Ridge则从根本上简化了各项需求,如不再需要对设备使用多个机架,也不再需要让成千根电线进出制冷剂来运行量子计算设备。英特尔用高集成度的SoC代替了笨重的仪器,简化了系统设计,并使用复杂的信号处理技术来加快设置时间,改善量子位性能,从而让工程软对能够有效地将量子系统扩展性到更大的量子位数。

在Horse Ridge基础之上,Horse Ridge II的设计基于第一代SoC产生射频脉冲以操纵量子位状态的能力,也称为量子位驱动(Qubit Dirve)。它引入了两个额外的控制功能,从而可以将外部电子控件进一步集成到在低温制冷剂内部运行的SoC中。

通过增加在集成电路内运行的可编程微控制器,让Horse Ridge II能够就三种控制功能的执行方式上拥有更高级别的灵活性和复杂的控制。该微控制器使用数字信号处理技术对脉冲进行额外滤波,有助于减少量子位之间的串扰。

Horse Ridge II使用英特尔22纳米低功耗FinFET技术(22FFL),其功能已在4开尔文温度下得到验证。如今,一台量子计算机的工作环境为毫开尔文范围,仅比绝对零度高几分之一。但是硅自旋量子位(英特尔量子工作的基础)具有可在1开尔文或更高温度下运行的特性,这将大大降低量子系统制冷的难度。

英特尔的低温控制研究重点,是致力于让控件和硅自旋量子位达到相同的工作温度水平。正如Horse Ridge II所展示的那样,这一领域的不断进步,代表了当今大力扩展量子互连所取得的进步,也是英特尔实现量子实用性长期愿景的关键要素。

由此可以发现,英特尔发展量子计算的方法就是利用英特尔的优势,即在芯片和电路制造工艺方面的专长去解决难题。而依靠自旋量子位技术、集成光子以及全栈系统方法,率先实现数百万量子位规模的愿景。

此外,英特尔和其他厂商不一样的地方在于,它是聚焦于全栈式量子研究,此次英特尔研究院开放日活动上,彰显了英特尔在量子计算堆栈的每一层取得的切实进步,为量子计算的技术发展留下了浓墨重彩的一笔。

·数据安全的生命线:保密计算

一旦提到数据、提到传输、提到存储,就离不开数据隐私的保护。但面对越来越庞大的数据,如何高效、有效的实现数据保密,已经成为业界亟需解决的问题。同时,为了解决数据隐私保护与大规模整合数据限制,以及阻挡我们从数据中获取更多有用的信息之间的矛盾,英特尔也在不断推动保密计算的发展。

当前,加密解决方案主要用于保护在网络中发送以及存储的数据,但数据在使用过程中依然容易遭遇攻击,而保密计算就是为此而生。

为此,英特尔提供数据保密性以防止机密泄露,提供执行完整性以防止计算被篡改,并提供认证功能,以验证软硬件的真实性。

可信执行环境提供执行保密计算的机制,旨在最大限度地减少需要信任的软硬件集,从而确保数据安全。为了减少必须依赖的软件,需要确保即使存在恶意软件,其他应用甚至是操作系统也不会危及到数据。它就像是一个可以防止入侵者窃取你贵重物品的保险箱一样,确保使用中的数据安全无虞。

然而,单个计算机的数据保护较为容易,但遇到多个系统和数据集,且如果它们分属于不同的所有者,该如何支持多方在协作中安全地使用敏感数据呢?

解决这个问题,我们需要了解一个概念——联邦学习(federated learning)。

在零售、制造、医疗、金融服务等许多行业,最大的数据集往往都被限制在所谓的数据孤岛中。之所以出现数据孤岛,可能是为了解决隐私问题或监管挑战,或是在某些情况下,数据太过庞大,无法传输。然而,这些数据孤岛对使用机器学习工具从数据中获取重要洞察造成了巨大障碍。

以医疗成像为例,机器学习在识别核磁共振成像的关键模式方面(比如确定脑瘤位置)取得了重要进展,但这些顾虑却阻碍了它的应用。英特尔研究院与宾夕法尼亚大学佩雷尔曼医学院的生物医学图像计算和分析中心开展了联邦学习方面的合作。在联合肿瘤分割项目中共同开发技术,来训练可以识别脑瘤的人工智能模型。通过联邦学习,英特尔将计算进行了拆分,这样每家医院就可以用本院的数据训练本地版本的算法,然后将获取的信息发送至中央聚合站点。这样就可以在不共享数据的情况下,将每家医院的模型组合成一个模型。但如果像这样拆分计算,就会增加篡改计算的风险。因此,英特尔在各医院使用保密计算来保护机器学习模型的保密性。同时还使用了完整性和认证功能,确保数据和模型在医院层面上不被操纵。

宾夕法尼亚医学院和英特尔研究院的研究表明,采用联邦学习方法训练深度学习模型,其准确率可以达到采用传统非私有方法训练的相同模型的99%。同时还发现,机构采用联邦学习训练模型,比仅用自己的数据训练模型时的性能平均高出17%。

英特尔一直在探讨如何更多地运用加密工具来保护数据。但目前在很多情况下仍然需要在处理数据之前就将数据解密,这一过程伴随着风险。而在英特尔的研究中,同态加密(homomorphic encryption)系统是一种不需要解密数据就可以处理数据的方法。

完全同态加密是一种全新的加密系统,它允许应用在不暴露数据的情况下,直接对加密数据执行计算操作。这些加密技术允许直接对加密数据进行云计算,不需要信任云基础设施、云服务或其他使用者。

传统加密要求云服务器访问密钥,才能解锁数据用于处理。而同态加密允许云对密文或加密数据执行计算操作,然后将加密结果返回给数据所有者,从而简化并保护了这一过程。结果表明,任何计算都可以由加法和乘法构成。而且,在完全同态加密中,你可以用任意复杂度的算法对加密数据执行这些基本操作。

然而也存在一些挑战,阻碍了完全同态加密的采用。在传输和存储数据时,传统加密机制的开销相对来说可以忽略不计,但在完全同态加密中,同态密文的篇幅比纯数据大得多。有时甚至达到1000-10000倍。数据激增将导致计算激增。密文的增加,要求处理能力随之增加。处理开销不仅会随着数据的增加而增加,还会随着计算复杂性的增加而增加。就是因为这些巨大的开销,导致同态加密尚未得到广泛使用。

但是英特尔希望普及这项技术。为此,英特尔正在研究新的软硬件方法,并与生态系统和标准机构开展合作。在采用联邦学习的情况下,通过消除不同数据所有者在整合数据时所遇到的障碍,以进行分析和获取洞察,同时确保数据隐私,来实现英特尔所追求的1000倍提升。同时,英特尔正在与全球顶尖的学术机构合作创立私有化AI协同研究院(Private AI Collaborative Research Institute),致力于扩展这些技术。

·节省不必要的软件开发成本:机器编程

在计算机编程领域,两种对立趋势愈加明显。

首先,计算资源变得越来越异构化。因为我们对某些种类的工作负载进行了专业化处理,所以需要专家级的程序员,也就是“Ninja programmer”,因为他们非常了解硬件以及如何最大限度地利用硬件。

但与此同时,软件开发人员则越来越青睐于使用更抽象的语言以提高工作效率。这反过来会导致硬件难以发挥出它本身的性能,而且这种对立趋势正在扩大。

因此,英特尔一直在考虑引入新的方法教计算系统自己编程,这也就是机器编程。

机器编程与机器学习有很大的不同,机器编程是教系统自己编程。它的核心原则是,人类向机器表达他(她)的意图,机器会自动创建完成该意图所需的所有软件。而要实现机器编程,需要明确意图(intention)、创造(invention)和适应(adaptation)这三大支柱。

为此,英特尔推出了机器编程研究系统ControlFlag,它可以自主检测代码中的错误。虽然仍处于早期阶段,但这个新颖的自我监督系统有望成为一个强大的生产力工具,帮助软件开发者进行耗时费力的Debug。在初步测试中,ControlFlag利用超过10亿行未标记的产品级别的代码进行了训练并学习了新的缺陷。

在软件重要性逐渐突显的今天,开发者依然继续把不成比例的大量时间用于修复Bug,而不是用于写代码。事实上,在IT行业每年花费的1.25万亿美元软件开发成本中,大约有50%是用于Debug代码。

随着异构时代的来临,即由多样化专用处理器组合来管理当今的海量数据,管理这些系统所需的软件变得越来越复杂,使得出现Bug的可能性也越来越高。此外,找到能够为跨架构的硬件正确、高效、安全地写代码的程序员非常困难,这同样也增加了代码中出现难以发现的新错误的可能性。因此,Debug代码工作将给开发者和整个行业带来更高的代价。

完全实现的ControlFlag通过自动化处理测试、监控和Debug等繁琐的软件开发工作,可以帮助缓解上述挑战。这不仅可以提高开发者的工作效率并让他们把更多时间用于创意,也能解决当前软件开发中成本最高的问题之一。

ControlFlag检测Bug的功能是通过机器编程实现的,其中融合了机器学习、形式化方法、编程语言、编译器和计算机系统。

具体来说,ControlFlag通过被称为异常检测(anomaly detection)的功能进行运转。作为自然界中生活的人类,我们通过观察了解到某些被认为是“正常”的模式。类似地,ControlFlag通过学习经过验证的例子来检测正常的编程模式,发现代码中可能造成Bug的异常。此外,不管代码使用什么编程语言,ControlFlag都可以检测这些异常。

ControlFlag的无监督模式识别方法的一个主要优势是,它可以从本质上学会适应开发者的风格。在有限的需要评估的控制工具输入信息中,ControlFlag可以识别编程语言中的各种风格,类似于读者识别英语中使用完整单词和缩略语的差异。

该工具会学会识别并标记这些风格选择,并根据其洞察可以自制错误识别和建议解决方案,从而让ControlFlag尽可能避免把两个开发团队之间的风格差异认为是代码错误。

ControlFlag已经证明,能够在广泛使用的产品级别代码中发现隐藏的Bug,而这些代码之前已经被软件开发者审核过。例如,在分析cURL(一个开源的命令行工具,被程序员广泛地用于实现互联网下载)时,ControlFlag发现了一个之前未被发现的异常,促使cURL开发者提出了一个更好的解决方案。

英特尔甚至已经开始评估在内部使用ControlFlag,在自己的软件和固件产品化中寻找Bug。这是英特尔Rapid Analysis for Developers项目的关键组成部分,该项目旨在通过提供专家支持从而帮助程序员加快速度。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多
说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具