在本文的开始,我们首先要说一些不怎么客气的话——我们曾经以“不务正业”来形容去年的GTC2014大会,现在我们觉得自己错了,因为在对比过今年的GTC大会之后,我们觉得去年的GTC2014已经算得上是一场紧密围绕NVIDIA“传统灵魂”进行的技术盛宴……
依旧是代表着GPU巫师最高水平的技术大会,依旧是四天内容超多的密集会期,依旧是大量富有价值的技术分享和keynote,甚至连happy hour也依旧热闹非凡。但刚刚结束的GTC2015,却完全是一次意义重大且成果颇丰,又让人根本看不懂甚至觉得有些“别扭”的大聚会。
从备受期待的老黄开幕式keynote开始,这届GTC大会的“别扭”气氛就已经注定了,在这个依旧由制作精良的开场视频引出并拥有主线贯穿的keynote当中,老黄完全没打算讨论任何与GPU、硬件架构以及相关技术直接相关的内容,整个keynote的主旨只有一个,那就是Deep Learning,一个关于超级计算机集群透过并行计算来改善自身运行效率的过程。诸如新硬件/解决方案发布之类的其他内容,甚至包括最后与“钢铁侠”musk的碰撞,几乎全部都可以看做是为这个主旨服务的陪衬,而且这些陪衬与主题的关联度本质上并不高,甚至可以说联系的有些生硬,比如说TitanX在keynote当中的定位就因为这种生硬联系而莫名其妙的变成了“可部署于Deep Learning节点用以加速training过程的强大计算卡”。这不仅很难快速的引起GPU爱好者的共鸣,就连在场的与会者都处在一片稍显尴尬的木然之中,大家都在寻找本届GTC大会的灵魂究竟在哪里。
TitanX本来应该是重头戏,可老黄给它的定位实在是让人觉得有些“别扭”
难道是NVIDIA变了么?难道GTC大会在自己的第七个年头也不能免俗的迎来了“七年之痒”,变得实在没什么可说的了是么?Deep Learning究竟是个什么东西?NVIDIA想通过今年的GTC大会向我们表达怎样的主题并释出什么未来规划呢?
Musk与老黄的碰撞虽然精彩,但在Keynote当中确实略显突兀
我们曾经说过,相对于“NVIDIA正在做什么”,我们更应该关注“NVIDIA为什么要这样做”以及“NVIDIA即将做什么”。无论GTC大会是否已经到了“七年之痒”的境地,老黄又是不是迷失了方向,这些现象背后所隐藏的真相才是需要被挖掘的。那么在今天的文字当中,就让我们一起来重新审视一下这届GTC大会的技术细节,看一看隐藏在“别扭”背后的真相吧。
● Deep Learning
在弄清楚一切之前,我们先要搞清楚一个重要的概念——在GTC2015大会上成功占据全场的Deep Learning,究竟是个何方神圣?
按照一般定义而言,Deep Learning(深度学习)是一种基于网格化和分布式运算特征的,近似神经网络模型的新式机器学习模式。它将原本的机器学习过程转化成为低关联度的可并行化过程,并进一步加深了学习深度,通过复杂且庞大的并行非线性数据样本所形成的网络来完成training(训练)的过程,进而实现多层结构的立体式学习和思考模型。
或者我们换个通俗的说法吧——Deep Learning其实就是一种能够让HPC集群通过学习自己改进自己算法的概念。
machine learning fundations(图片源自网络)
无论对于电脑还是对于我们人类自己而言,学习和在特定的学习范围内进行相关的思考其实都是一个相当受控的过程。学习无外乎知识与信息的收集、摄取以及整理,而与之相关的思考则包含了归纳、总结、规则抽离以及延伸等等过程。要让电脑在受控的范围内具备学习和思考的能力其实并不难,只需要设定好思考的规则和方式,然后不断地为电脑提供可作参考和训练样本的信息即可。用最通俗的话讲——给它筷子和吃的,告诉它怎么用筷子以及怎么吃,然后看着它吃就好了,它自然会在吃的过程中总结与吃有关的经验然后越吃越顺畅的。
有关于电脑或者计算机学习与思考的话题其实并不时髦,早在上世纪六十年代,以machine learning(机器学习)为代表的一系列概念就已经出现了。这些概念构成了多领域的交叉学科,涉及概率论、统计学、逼近论、线性及非线性过程分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构并用来改善自身的性能和执行效率。
这么个大块头的处理能力还不及现在的一块智能手表
以概念和需求而言,machine learning在当时无疑都是一个超越时代的产物。机器的学习过程本质上虽然简单,但这个过程需要两样最基本的要素——样本信息总量和运算能力总量,要命的是这两样东西在那个时代可以说都少的可怜。最初的machine learning模型能够获取的样本完全靠设计者手工拾取和构筑,在刚刚摆脱纸带输入进入磁介质存储的当时,这样的样本信息量充其量只能以KB为单位计,而处理能力则更不用说了。有介于这些最简单却又是最基本要素的缺失,machine learning在经历了诞生之初爆炸般的蓬勃发展之后便快速陷入了沉寂,虽然其后又经历了多次复苏和发展,但却一直没有摆脱样本总量不足以及运算处理能力不足这两个最根本的制约因素。
deep learning将让计算机具备抽离和优化规则的思考能力(图片源自网络)
随着互联网以及以GPU节点为主的大规模并行计算体系的高速发展,人类进入了真正意义上的“信息爆炸”时代,每时每刻都会有以TB甚至PB为单位计的数据在互联网中飞驰,这些数据包罗万象,从我们每天拍的无数张照片到各种音频视频流数据无所不有,而人类所能够拥有的并行计算能力也因为GPU以及GPGPU的出现而提升到了前所未有的高度。machine learning发展所需要的两样最基本要素,在当前这个时代中已经不再是瓶颈和制约要素了,近乎无穷多而且每天都还在高速增长的各种信息可以为其提供任何想要的学习样本,而大规模并行计算则为学习过程提供了运算能力的支撑,过去几十年无法得到有效发展的尴尬好像一下子就消失不见了。
此时的machine learning已经在理论上进化到了更具针对性和效率的分支,也就是本届GTC大会上充当核心灵魂的Deep Learning,我们先前已经提到,这是一种基于网格化和分布式运算特正的,近似神经网络模型的新式机器学习模式。它需要的大规模非线性数据样本广泛存在于整个互联网当中,而并行处理模式则与由GPU构成节点的新一代超算集群契合度非常高。在一系列有利要素的推动和促进下,计算机的学习和思考过程再一次进入了发展的快行道。
deep learning过程(图片源自网络)
在GTC2015大会上,NVIDIA密集展示了大量基于Deep Learning的超算集群科研成果、应用以及实际产品,几乎所有keynote(不仅仅局限于老黄那一份)、学术研讨、分享以及成果展示均围绕这一概念展开。与此同时,以deep learning加速的快速图形识别和高精度语音识别为基础的一系列服务也已经大量上线并开始为用户提供对应的服务,我们所熟悉的百度图片检索就是这其中的代表。以当前的形势来看,能够维系深度学习及计算机思考领域发展的良性生态循环已经建立了。NVIDIA在此时大举投身其中,起码在节奏和环境上是正确的。
但你我都知道,这只是结果,并不是诱因,更不是Deep Learning成为本届GTC大会灵魂的理由。
● 我们也需要深度思考一下了
究竟是什么促使NVIDIA将注意力转向Deep Learning并把它变成了本届GTC大会的灵魂内容,同时在当前的技术背景下呈现出爆炸式的发展势头呢?答案在于应用。Deep Learning的出现不仅大大提升了许多互联网热门领域的应用水平,甚至可以从根本上改变我们现在的生活。
得益于Deep Learning,超越siri的语音交互系统未来将会实现
Deep Learning所产生的影响虽然主要面向超级计算机集群领域,但通过这一领域,它能够获得足以改变未来的能力。Deep Learning能够导致的变化涵盖搜索、语音交互、服务供应、汽车、医疗甚至金融等等各种与我们生活息息相关的领域,所以可能您还没有注意到,但本届GTC大会确实已经为我们勾勒出了一个生动的未来景象了。
deep learning在医疗领域的应用
比如说快速高精度图片识别吧,踏青的时候如果您想知道某种很好看的花叫什么,现在只需要拍一张照片然后交给百度/google去识别就行了,搜索引擎背后基于deep learning的超算集群已经通过数亿甚至数百亿张图片样本的学习掌握了区分图像细节的方法,并且能够自动完成所有必须得细节判断和检索工作。我们只需要给一张照片,就能获取过去必须通过语言详尽描述之后才能够获取的信息和答案了,而由此类操作所延伸出的全新搜索模式,则会从根本上改变整个互联网服务体系的现状和未来。
百度搜索的高精度图片识别
直接用图片完成信息搜寻的方式不仅会改变我们的搜索习惯以及民用互联网服务体系的现状,还会对包括医学在内的诸多领域产生深远影响,从组织切片照片当中快速识别病变细胞/癌细胞之类过去十分棘手的问题,在deep learning支撑的系统当中都将不再是难事。deep learning能够让HPC更快速的掌握图片规律,进而以更高的效率在超大规模数据库当中完成准确性更高的检索和匹配过程。
除了图像之外,基于deep learning的超算集群还在快速高精度语音识别、复杂背景音环境主音拾音以及连续动态视频监控等领域表现出了相当明显的效率优势,无论是超越siri的语音交互系统还是更好的车载交互平台,都将会在很近的未来得以实现。在其他需要不断自我改进算法以提升效率的领域,我们的生活,将会很快被基于Deep Learning的超算系统所改变。
围绕Deep Learning发布的新解决方案——digits devbox
有介于此,Deep Learning其实比往届GTC大会上那些有针对性的GPU技术更具象,它对我们生活的影响明显更加直接和具体,并且已经开始了对未来的改变。而Deep Learning之所以会在当前快速发展,皆因为基于GPU节点的大规模并行计算体系已经进入了相当成熟的状态。NVIDIA之前在GPU逻辑结构设计和软件环境层面的付出为我们带来了效率十分理想的并行运算架构,正是基于这些成功设计的GPU所打造的并行超算系统,给Deep Learning提供了可靠且高效的运算能力。
所以,这届GTC大会并不像很多人所想的那样缺乏灵魂,NVIDIA将Deep Learning定为GTC2015大会的灵魂和核心,其实就是对过去的总结以及对未来的展望,从本质上来讲,这与GTC大会“展现技术前沿进展和转化应用成果”的主旨其实是很吻合的。
● 绿色的未来究竟在哪里
应该承认,NVIDIA在GPU并行计算这条路上确实已经走出了很远的距离,其所取得的成绩亦属斐然。在GPU所提供的并行运算能力的推动下,许多过去不可为的事情现在都已经慢慢变成了现实,这使得GPU存在的意义不再局限于娱乐和PC游戏,我们的生活也因为GPU功用的拓展而变得更令人期待。正是基于这样的原因,我们才会对GPU能够更好地发展下去抱有极大的期许。而每年GTC大会的期待,也正是建立在这样的期许之上的。
在这一个瞬间。你以为老黄举起来的会是全新的显卡?抱歉这是车用解决方案Drive PX……
大规模并行计算也好,Deep Learning也罢,所有这些基于并行计算的概念的实现,最终还是要依靠GPU逻辑结构的改变和进步。只要我们以稍微宏观一些的眼光去看待现有的超级计算机集群,将其中的每一颗CPU及每一块计算卡都看做是一个点,就会发现它们与单颗GPU之间的相似性。大量计算节点的并行多任务处理过程,与大量ALU的并行多线程处理在数学模型上存在很多等价的部分,早已基于大规模并行架构进行设计的GPU,是不可能不对同样基于并行化体系的产生影响的。这不仅是一切的原动力,同时也是NVIDIA“看家立命”的根本。而且在现在这种竞争烈度极为不正常的业界大环境下,人们对新技术进展的渴求会更加明显,所有人都希望新的进步能够带来新的而且是良性的刺激,所以没有了GPU架构直接进步内容的GTC大会,自然也就会冒出来一大堆让人不怎么舒服的“别扭”了。
老黄Keynote内容看上去确实比去年更加“不务正业”
现在我们可以回到开篇的问题当中了——这届GTC大会是否预示着NVIDIA已经丢失了自己的灵魂,开始将注意力转移到GPU之外的领域当中了呢?冷静思考之后,我们认为情况倒也没糟糕到那种地步。GTC2015虽然围绕着Deep Learning展开,但NVIDIA还是在其中为我们展现了最重要的未来规划,也就是关于GPU的未来规划。NVIDIA新一代路线图
尽管几乎没有架构相关的实际内容,但老黄的keynote其实已经释出了关于NVIDIA未来的重要信息,那就是未来架构发展的roadmap。按照计划,NVIDIA将会在未来一年内迎来GPU架构层面最重要的节点Pascal。这一引入堆叠显存、NVLink以及mixed precision特性的新一代GPU架构不仅拥有2倍于Maxwell架构的单位能效比,4倍precision效率以及3倍的显存带宽(750GB/S),同时传递了一个明显的信号——NVIDIA将会在GPU架构层面继续推动进步的出现。Deep Learning等概念虽然与GPU并无直接联系,但这些来自HPC领域的需求会促使NVIDIA在GPU架构层面做出了对应的改进,这些改进仍旧会推动GPU架构及技术的对应进步。
Pascal将会为我们带来惊喜
除此之外,Pascal架构还背负着重置D线的任务,随着堆叠显存的列装以及MC结构的大改,Base/Logic Die将带走相当一部分传统MC结构所进行的工作,原本核心内部的晶体管以及资源压力得以外泄,GPU架构的工作状态将发生很大的改观,传统的由后端工作所导致的能耗将会减少,GPU内部因此而获得了更多空间余量和资源余量。再加上DirectX 12所带来的对逻辑结构的新需求,对于逻辑结构设计者来说,无论修改ALU团簇、任务管理机制以及cache等基本逻辑结构还是进一步放大运算单元规模都有了更充分的余地。由此可见,Pascal架构仍旧可以为我们带来足够多值得期待的进步。
在Pascal到来之后,也许明年的GTC大会将更加精彩
由此可见,无论进步的动力源自何处,NVIDIA继续推动GPU架构及相关技术进步的努力应该都不会停止,不断提升GPU架构的性能功耗比以及绝对性能,在未来相当长一段时间内都将成为NVIDIA的核心任务。单从形式上看,GTC2015所承载的任务更多的是展示GPU并行运算在不同领域的实际转化,并为我们勾勒出值得期待的未来,尽管它可能无法让许多GPU爱好者以及拥趸在第一时间形成共鸣,但随着GPU架构的继续演进,NVIDIA和GTC大会的未来还是值得期待的。也许明年的GTC2016上,老黄那令人期待的keynote就会再次来到我们的面前了。
评论