我爱免费 发表于 2023-11-17 16:45

英伟达发布全新AI芯片,从H20到H200,国产AI芯片到底差在哪里?

作者:科技传声
近日,全球芯片巨头英伟达为了避让美国政府最新对中国的AI芯片出口限制红线,将基于H100芯片推出了三款针对中国市场的AI芯片。然而,仅仅过了一周的时间,英伟达再次推出自己最强AI芯片H200。至于这三款中国特供版AI芯片并非是“改良版”,而是真正意义上的“缩水版”。如此可见,这次芯片的命名英伟达老黄可谓是“花费了心思”。据悉,HGX H20不管是在带宽、计算速度等各种性能表现方面都受到了极大地限制。从理论上而言,该款AI芯片在其算力方面,相比于英伟达H100芯片而言要降低80%左右。也就是说,HGX H20的综合算力性能只有H100的20%左右。也就是说,这所谓的美版与中国特供版,实力相差还是肉眼可见的10倍!我国AI芯片和英伟达AI芯片的差距,到底在哪里?算力差距。所谓的算力,也就是说在单位时间内能够处理多少信息。这其中的差距就必要靠芯片的“设计和制造”能力了。然而,其中的制造能力,我国一直都在不断的创新优化制造水平。但仍然存在一定的差距,因为这需要在制造设备、材料和工艺等等方面的综合提升。而在设计方面,我国却已经有了一定的经验积累,并没有实际中的那么差,或者说是有了国际先进水平。例如,从算力角度来看,我国的国产AI芯片910B与英伟达H20相对比的话,半精度算力还要远远高于H20。据悉,在大模型推理中,我国的国产AI芯片910B能够达到H100性能的60%至70%。那么,国产芯片与美国芯片到底差在哪里?事实上,AI芯片除了显性的算力以外,还存在有隐形的差距,那便是“网络”和“存储”处理能力,换句话说其实就是我们常说的“带宽”。如果用厨师做饭来比喻的话,高算力就类似于一位厨艺精湛的大师,而网络和存储更像是“买菜”和“传菜”。当厨师想要做菜时,便需要将菜买回来以及洗好菜给厨师。如果买菜和传菜的速度比较慢,那便会影响厨师出菜的速度。所以,网络和存储便成为了制约我国芯片算力的发展关键。那么,英伟达是如何在网络层面做到全球领先的呢?此前,特斯拉有一个超级算力中心Dojo,它是特斯拉智能驾驶的强大支撑。然而,特斯拉FSD V12版本的训练并没有采用Dojo,而是依赖于英伟达。马斯克对此也说道,目前发展新能源汽车所遇到的最大的技术困难,就是需要想InfiniBand那样的高速网络连接起来才能迸发出更强大算力。他所提到的网络连接,就不得不说说美国施乐,它也是养活了美国微软和苹果的背后“大哥”。在计算机发展初期,各种网络连接标准出现,并且互相并不能通信。因此,后来施乐便提出了以太网的标准。在这标准下,全球各地的服务器交流需要先到核心内存,在送到网卡,最后在送到另外一台服务器上。因此,所有的信息传输都要经过内存的转换,不仅增加了CPU的负担,对于传输的时延也极大的增加了。于是,大模型InfiniBand以其极快的数据传输速度,并且不需要经过核心内存的转换直接通过网卡实现数据传输,便成功脱颖而出了。因此,英伟达看到了该大模型的未来发展趋势,犹如伯牙遇见了钟子期。豪掷69亿美元将其纳入麾下,成功拿到了InfiniBand这个网络大模型利器,进一步助推了英伟达在AI领域的发展。不仅如此,就连马斯克也感慨。谁让英伟达的眼光好,现在只需要等到以太网赚钱就行。除了网络连接以外,我国的存储又为何会受到限制呢?那我们不得不提起现在计算机架构的大师冯·诺依曼,在该架构中就包括“运算”、“存储”、和“输入输出”等三大类设备。在这种架构下,AMD和SK海力士又进一步研制了HBM,能将GPU、CPU和ASIC封装在一起,进一步提高了存储的容量和并行数据的处理速度。据悉,HBM3的带宽速度可以达到819GB/S,而CPU常用的DDR4技术,带宽也仅仅只有HBM的十分之一。因此HBM技术一直都受到英伟达和AMD的喜爱。值得注意的是,虽然我国的国产GPU也可以使用HBM技术,但是在高端产品方面并没有拿到授权。未来,我国的国产AI芯片还有很漫长的路要走。创作不易,如果觉得还不错的话,请帮忙点击右下角【在看】和【点赞】,后续将创作更多好文分享给各位看官。
页: [1]
查看完整版本: 英伟达发布全新AI芯片,从H20到H200,国产AI芯片到底差在哪里?