中关村在线

热点资讯

Nvidia推出用于AI驱动服务的高速数据中心平台

近日,Nvidia对其机器学习产品进行了升级,推出一款新的数据中心芯片和软件,旨在加速这些服务从而实现新的服务,例如人与机器之间更自然的语言交互。

在东京举行的Nvidia GPU技术大会上,Nvidia首席执行官黄仁勋及其高管宣布推出了这些新产品。首先,他发布了名为Tesla T4的小型低功耗芯片,该芯片采用所谓的Turing Tensor Core设计。作为当前特斯拉P4的下一代,T4拥有2560个核心,每秒可运行高达260万亿次操作。

Nvidia进行产品升级(图片来自Nvidia

黄仁勋还宣布对TensorRT软件进行更新,该软件可让处理速度比CPU快40倍,它包括一个TensorRT 5推理优化器和Tensor RT推理服务器以及一个软件“容器”中的微服务,可以运行主流的人工智能软件框架,并与容器编排器Kubernetes和Docker集成。

TensorRT Hyperscale Inference Platform平台专注于推理,基于得到的新数据来推断任务以及执行任务。与训练模型不同,推理通常要使用内部有标准CPU的服务器。

Nvidia副总裁、加速业务总经理Ian Buck解释说,目前数据中心内有用于各种任务的软件,如图像识别、搜索和自然语言处理,导致效率不高。Nvidia新推出的推理平台,让应用可以使用相同的架构和软件加速应用。例如使用GPU进行推理可帮助微软的Bing搜索引擎将延迟提高60倍。

此外,Nvidia还宣布推出了第一个用于自主机器的AI计算平台。具体来说,这是一款新的AGX嵌入式AI HPC系列服务器,该系列产品的部分包括用于数据中心的DGX系列和用于所谓的超大规模数据中心。另一个新产品是Jetson AGX Xavier,这是第一台用于机器人等应用的AI计算机。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多
说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具