4月14日,NVIDIA不仅凭借其高性能AI GPU推动全球人工智能技术发展,也在企业内部全面深化AI应用,尤其在GPU芯片设计全流程中实现了深度集成。
该公司首席科学家比尔·达利在与谷歌首席科学家杰夫·迪恩的交流中指出,AI目前已深度融入芯片设计各环节,涵盖架构探索、标准单元库开发、缺陷识别与修复、功能验证等关键阶段。但他同时强调,实现端到端全自动芯片设计仍面临诸多挑战,对于具体何时能够达成这一目标,他未作预测。
达利以标准单元库工艺迁移为例说明AI带来的实质性突破:过去,将一套标准单元库适配至全新制程节点,需一支八人团队耗时十个月,相当于八十人月的工作量;如今,依托自主研发的强化学习工具NB-Cell,该任务仅需单块GPU运行一晚即可完成。更值得关注的是,AI生成的单元在面积占用、功耗表现与信号延迟等核心指标上,已达到甚至优于资深工程师手工设计的水平,显著加速了先进工艺的落地节奏。
此外,达利还介绍了另一款内部工具Prefix RL,专门用于解决进位超前链中关键模块——超前级布局这一长期存在的难题。AI生成的布局方案突破了传统设计思维边界,被评价为“人类工程师难以构想”,在关键性能指标上较人工设计提升二至三成。这表明,NVIDIA引入AI的目的远不止于提效降本,更在于拓展设计可能性,挖掘超越人类经验与直觉的创新路径。
在更高层面,NVIDIA已在内部部署两款专有大语言模型:Chip Memo与Bug Nemo。二者均基于多年积累的GPU设计数据进行深度微调,训练语料涵盖寄存器传输级代码、架构文档及大量工程实践资料。实际应用中,初级工程师可直接向模型提问获取精准解答,大幅减少对资深人员的重复咨询;模型还能自动归类分析缺陷报告,并智能匹配至相应模块或责任人。值得注意的是,尽管AI显著提升了整体研发效率,公司并未因此缩减初级岗位,反而借助技术手段加快新人成长节奏,使其更快胜任复杂任务。这种将AI作为能力放大器而非替代工具的做法,体现出一种更具可持续性与人文温度的技术演进路径。

评论
更多评论