在今年特斯拉 AI 开放日上,D1 芯片风光无限。
独特的晶圆封装系统 + 芯片设计,让 D1 在训练万亿参数级神经网络时,可以拥有数量级优势。特斯拉更在发布会上表示,它在性能上已经完全碾压英伟达 GPU 和谷歌 TPU。
不过,颠覆性的设计能够带来关注,也会遭到质疑。
最近,半导体分析网站 SemiAnalysis 就表示:
D1 芯片存在一些重大技术问题。
内存、成本上都有疑问
作为特斯拉首款 AI 训练芯片,D1 芯片采用分布式结构和 7nm 工艺,搭载 500 亿个晶体管、354 个训练节点,实现了超高算力和超高带宽。
根据特斯拉已经透露的信息,SemiAnalysis 从以下几个方面提出了质疑:
首先是内存问题。
SemiAnalysis 认为,D1 芯片无论在功能单元层面还是系统层面,想要达到他们所说的算力,内存可能都不够。
功能单元层面,D1 芯片的单个功能单元具有 1.25MB SRAM 缓存、1TFlop 的 FP16/CFP8 精度计算能力。
在芯片层面,裸片上没有其他 SRAM 结构,只有 354 个单元的 1.25MB SRAM 来支撑。
基于设计相似的 IPU,SemiAnalysis 推测这种设计会导致严重的内存缺陷,从而影响芯片的算力。
事实上,每个 IPU 芯片上 SRAM 的数量还是 D1 的两倍,但它在性能上和英伟达 A100 比起来,劣势依旧非常明显。
在 BERT 和 ResNet50 训练中,英伟达 A100 的速度分别是 IPU 的 1.54 倍和 1.43 倍。
其次,就是在成本问题上。
特斯拉 D1 芯片之间可以实现无缝融合,这使它能够达到 8 TB/s 的 IO,比 ASIC 和英伟达高出一个数量级。
为了满足这样大的 IO,特斯拉采用了独特的封装方式,即 InFO_SoW。
这种封装方式的特点就是可以够大。
在发布会上,它们也展示了由 25 个 D1 芯片组成的训练模块。
但这种封装方式在实际生产中的难度很高,出现报废的情况会更多,由此也会导致成本突增。
除了这两方面,SemiAnalysis 认为 D1 还有很多未解决的问题。
比如,在发布会现场被问到软件方面的问题时,特斯拉工程师甚至回答他们完全没有准备。
SRAM 方面的问题也亟需解决,否则将会面临运行速度过快的风险。
以上种种,都导致特斯拉的开发人员需要对系统进行大量的优化。
此外特斯拉透露,目前他们已经部署的 D1 芯片只有 3000 个。
如此看来,D1 芯片的摊销成本也是非常高了。
D1 真的在神坛之上吗?
事实上,在特斯拉 AI 开放日的第二天,它的股价上涨甚至还不如英伟达。
可见投资界对于马斯克带来的新技术,也都非常冷静。
有人表示,特斯拉把技术封锁在自己的堡垒内,外界无法测评,也就无从得知它真正的优势和局限性。
这一次向特斯拉开怼的是 SemiAnalysis,它是一家半导体分析评论网站,首席分析师为 Dylan Patel,毕业于佐治亚大学特里商学院。
参考链接:[1]https://semianalysis.com/the-tesla-dojo-chip-is-impressive-but-there-are-some-major-technical-issues/
[2]https://news.ycombinator.com/item?id=28361807
[3]https://www.linkedin.com/in/dylanpatelsa/