根据最新报道,英伟达的尖端图像处理半导体(GPU)H200已经开始供货。这款产品主要面向AI领域,性能超过主打的H100芯片。
据英伟达公布的性能评测结果显示,以Meta公司旗下的大语言模型Llama 2为例,相较于H100芯片,使用H200进行生成式AI导出答案处理速度最高提高了45%。
市场调研机构Omdia曾表示,2022年英伟达在AI半导体市场约占8成的份额。然而,在竞争日益激烈的环境下,AMD等竞争对手也在开发对抗英伟达的产品。
在3月18日的开发者大会上,英伟达宣布年内将推出新一代AI半导体“B200”。这款产品与CPU组合使用,适用于最新的大语言模型。黄仁勋表示:“Hopper固然是非常出色的,但我们需要更强大的GPU。”
据悉,GB200是“最强AI加速卡”,其性能比H100提升了30倍,并且成本和能耗降至其五分之一。
值得一提的是,英伟达H200芯片于去年11月发布。作为H100的继任者和该公司首款采用HBM3e内存的芯片,其内存容量达到A100的两倍以上。同时,每秒传输的数据量更是达到了4.8TB级别。
评论