> 服务器

新品日历

更多频道

人工智能不止靠GPU Graphcore如何在AI领域“另辟蹊径”?

在过去短短的几年里,人工智能应用的大流行推动了整个半导体市场的蓬勃发展,根据Global Market Insights的数据,在2026年,全球AI芯片组市场有望突破700亿美元大关。但市场的火热也意味着对芯片的更高要求,而出生于英国布里斯托的明星企业Graphcore,正在作为AI芯片领域的后起之秀,重塑整个行业的格局。

英国半导体之父、Arm联合创始人Hermann Hauser曾说过:“在计算机历史上只出现过三次革命,第一次是20世纪70年代的CPU,第二次是20世纪90年代的GPU,第三次就是IPU”。Hermann Hauser爵士口中的IPU,就是Graphcore率先提出的为AI计算而生的Intelligence Processing Unit。

截至去年12月份,Graphcore的估值已高达27.7亿美元,投资方既有像红杉资本这样的金融投资者,也有像微软、戴尔、三星等战略投资者。现在的Graphcore在欧洲、美洲、亚洲均设有办公室,办公室在英国布里斯托、伦敦、剑桥,挪威奥斯陆,美国的帕拉奥托,中国的北京、深圳和上海,德国慕尼黑,日本东京和韩国首尔等都有所分布。值得一提的是,Graphcore中国成立于2019年,而且取了一个颇有意境的名字:拟未。

Graphcore的产业投资方基本分为三个产业方向:数据中心、移动设备与自动驾驶,这并不难理解,在全球范围之内,这三个方向都属于“走得最快”的产业之列。以数据中心为例,互联网的数据通过AI和算法可以转换成各种各样的商业方式,产业AI则是用AI来“武装”各种各样的产业,数据中心在其中发挥着至关重要的作用。不仅是整个AI落地的前沿阵地,行业能力也要依靠数据中心的能力作为支撑,这也是Graphcore近年来极为关注数据中心行业的原因之一。

“IPU比GPU更擅长做并行处理。”Graphcore高级副总裁兼中国区总经理卢涛在接受采访时表示,“这也是IPU与GPU最大的差异化特点之一,IPU有一千多个处理器内核,另一方面,IPU与GPU的内存架构也大不相同,GPU是层次化的内存结构,片内有一个大概二三十兆的片内缓存,片外是高速的显存,IPU全部在片内,此外我们每一颗芯片都有900M的处理器内存储,如果要扩展成集群,IPU-Link可以很方便地做芯片间的协同。”

Graphcore高级副总裁兼中国区总经理卢涛

这样的内存架构使得IPU在面对长短期记忆人工神经网络(LSTM)和循环神经网络(RNN)这样的算法时,相比GPU拥有巨大的优势。另一方面,由于AI很多底层运算就是矩阵的乘法运算,如果算法模型不是用稠密的卷积,而是较为稀疏的卷积,例如EfficientNet,那么模型在GPU上运行的结果也不会太好,这并不是算法本身的缺陷,而是GPU的架构不符合算法的特点,反而IPU在这样的算法上会有很高的精度和性能表现。

Graphcore提供的产品主要包括三个部分:专为AI设计的IPU处理器、Poplar SDK和开发工具,以及IPU系统,例如由IPU-M2000堆叠的IPU-POD系统,以及与浪潮、戴尔等OEM厂商适配完成的IPU服务器。去年7月,Graphcore推出了第二代IPU和用于大规模系统级产品IPU-Machine:M2000(IPU-M2000),全新的IPU在823平方毫米的芯片上集成了594亿个晶体管,1472个完全并行的处理器内核和近9000个独立的并行处理器线程,900MB的超高速处理器内存储,系统级性能较第一代IPU提升八倍以上。作为一款即插即用的机器智能刀片式计算单元,IPU-M2000采用了7纳米工艺,由Poplar软件栈提供支持,能够带来1PetaFLOPS的AI计算能力,并通过专用IPU内置了AI横向扩展网络架构。值得一提的是,上个月Graphcore参加了在天津举办的第五届世界智能大会,这也是基于第二代IPU(MK2 IPU)构建的MK2全线产品在中国的首次亮相。

Graphcore展台

虽然Graphcore在诸如车联网、智慧城市与智能零售等领域上都有所布局,但都有整体的策略,即关注与其计算能力相关的垂直领域,建立相关行业的能力,再“以点带面”地突破。正如卢涛谈到的那样:“在车这一领域做的应用未必能代表在互联网这一领域里做的应用,在互联网这一领域做的应用未必能代表在金融这一领域里做的应用。我们整体的策略很注重头部的应用。AI的应用非常行业化、非常场景化。以车联网举例,在一些机器视觉的能力方面,Graphcore有一些低时延的优势,‘点云’是一个相对稀疏化的数据结构,这也是Graphcore所擅长做的东西,目前相关的工作正在稳步推进。我一直讲‘我们仰望星空,但是脚踏实地’,脚踏实地就是要找头部的合作伙伴,做了典型案例落地之后,我们再‘以点带面’地铺开”。

芯片圈里人尽皆知的事实是:NVIDIA凭借CUDA,创造了一个强大的软件生态。Graphcore的Poplar可以用来对标CUDA的软件栈,再往上则是PopLibs,这一层对标的是GPU的cnDNN和cuBLAS。“我们开源了Poplar计算图库(PopLibs),这是NVIDIA没有做到的,此外,针对TensorFlow、PyTorch这层,我们也在做对PaddlePaddle的支持和应用的开发,但只凭借我们自己的力量显然是不够的,因此我们在积极地建设自己的生态系统,与生态系统合作伙伴紧密合作。软件是今天GPU最大的护城河,也是用户从GPU迁到别的平台上的最大阻力。我们最近也在做一些工作,希望能够尽量降低用户在移植工作上的工作量。这是我们当前软件整体的策略:开放、开源,然后拥抱社区。”卢涛表示。

AI仍然火热,CPU会持续存在,GPU也会持续创新,他们在某些AI计算任务上都是不可或缺的,或者说是最好的选择。但是摩尔定律失效、AI计算和数据爆炸等趋势催生出的新市场,一定是巨大且多样性的。这也给了Graphcore更多的机会。

在未来,AI势必会有更强的算力需求,持续推出性能强劲的处理器是必然的选择,卢涛认为,“半导体在过去几十年很重要的一个产品逻辑和商业逻辑,就是要保持一个很稳定的迭代速度。我们目前在很积极地研发我们后面的一些产品。未来我们也是希望能保持一个比较稳定的迭代周期来往前推进。基本上我们最后也是会像‘一代量产、一代研发、一代架构’这样的一个过程。”

正如Graphcore中文名字的含义那样,Graphcore的目标是构建一个先进的计算平台,帮助创新者实现下一个突破,做面向未来的事情。

文章提到的产品

打开ZOL新闻,阅读体验更佳

产品推荐

热门评论

更多评论

相关阅读

点击加载更多
全站导航
0

发评论,赚金豆

0 纠错