據(jù)The 傳華Information最新發(fā)布的一份報(bào)告稱,中國科技巨頭華為正在尋求改變其人工智能芯片設(shè)計(jì)策略,為計(jì)從 ASIC (專用集成電路)轉(zhuǎn)向GPGPU(通用圖形處理器)芯片,劃重以便從NVIDIA手中奪取更多的新設(shè)I芯向市場份額。
盡管美國對中國實(shí)施半導(dǎo)體出口制裁,轉(zhuǎn)正面阻止NVIDIA在中國大陸銷售其先進(jìn)的硬罡 AI 芯片,但NVIDIA的傳華產(chǎn)品仍然是中國大陸需求最廣泛的AI芯片。
主要是為計(jì)得益于NVIDIAGPGPU架構(gòu)及強(qiáng)大的CUDA生態(tài)。
眾所周知,劃重GPU本身是新設(shè)I芯向設(shè)計(jì)來支持圖形計(jì)算的,但其強(qiáng)大的轉(zhuǎn)正面并行計(jì)算能力使得它能夠處理各種計(jì)算任務(wù)。
隨后,硬罡NVIDIA就針對AI應(yīng)用推出了有很強(qiáng)的傳華編程靈活性和適應(yīng)性的GPGPU,結(jié)合自己的為計(jì)CUDA軟件編程框架,可以處理不同類型的劃重負(fù)載,比如圖形渲染、科學(xué)計(jì)算、深度學(xué)習(xí)等。
華為的昇騰AI芯片則是為AI計(jì)算優(yōu)化的ASIC,它主要針對深度學(xué)習(xí)推理和訓(xùn)練進(jìn)行特化。
這種定制化使得它在特定任務(wù)上有更高的性能和能效,但對于圖形渲染、并行計(jì)算、科學(xué)計(jì)算等通用計(jì)算任務(wù)上的效率和靈活性就不如GPGPU。
比如,目前許多AI應(yīng)用(尤其是深度學(xué)習(xí))主要使用單精度(FP32)和低精度(如INT8或FP16)浮點(diǎn)運(yùn)算,因?yàn)檫@些操作能夠提供足夠的精度,并且能在較低的計(jì)算資源下完成。
昇騰AI芯片這種AISC架構(gòu)可以優(yōu)化這類AI計(jì)算的效率,但是卻無法支持雙精度浮點(diǎn)(FP64)計(jì)算。
相比之下,NVIDIA的H100/H20這類加速器,不僅支持單精度和半精度浮點(diǎn)計(jì)算,還能有效支持雙精度浮點(diǎn)計(jì)算,這也讓它們可以用于更廣泛的科學(xué)計(jì)算、工程模擬等任務(wù)。
此外,在軟件生態(tài)上,NVIDIACUDA平臺擁有成熟的開發(fā)生態(tài)和大量優(yōu)化好的庫(如cuDNN、TensorRT),可以為廣泛的應(yīng)用場景提供支持。開發(fā)者可以利用這些工具和庫大大簡化開發(fā)工作。
華為昇騰AI芯片則采用的是自研的CANN(神經(jīng)網(wǎng)絡(luò)計(jì)算架構(gòu))軟件平臺來實(shí)現(xiàn)算力調(diào)度與執(zhí)行。
雖然華為也推出了MindSpore等深度學(xué)習(xí)框架,但它的生態(tài)系統(tǒng)和開發(fā)者支持,相比NVIDIA的CUDA生態(tài)還是要差很多。
總的來說,昇騰AI芯片作為ASIC的優(yōu)勢在于AI計(jì)算的高效能和低功耗,但在計(jì)算任務(wù)的靈活性、雙精度浮點(diǎn)支持以及開發(fā)生態(tài)方面,與NVIDIA以及部分國產(chǎn)GPGPU廠商仍有一定的差距。目前其他的國產(chǎn)GPGPU廠商在發(fā)展自有生態(tài)的同時(shí)都有兼容CUDA生態(tài)。
The Information的報(bào)告指出,華為想要提升其AI芯片在中國大陸市場的份額正面臨的一個主要瓶頸,即華為AI芯片采用的是CANN(神經(jīng)網(wǎng)絡(luò)計(jì)算架構(gòu))軟件平臺來實(shí)現(xiàn)算力調(diào)度與執(zhí)行。但是,CANN并未得到行業(yè)的廣泛的支持,遠(yuǎn)不及NVIDIA的CUDA。
據(jù)悉,華為的新的AI芯片在轉(zhuǎn)向GPGPU后將配備新的軟件,允許用戶通過中間件以兼容NVIDIA的 CUDA 編程語言,該軟件也可以將CUDA的指令轉(zhuǎn)換為適用于華為AI芯片的語言。
消息人士補(bǔ)充說,華為也有興趣采用NVIDIA和AMD使用的芯片功能模型。
報(bào)告稱,雖然目前華為的AI芯片是ASIC,但該公司有興趣擴(kuò)展其通用計(jì)算產(chǎn)品。
這一轉(zhuǎn)變將使得華為的AI芯片能夠被更廣泛地使用,并可能有助于華為增加其在中國AI芯片市場的份額。
5月11日,江西省委常委、南昌市委書記李紅軍調(diào)研中建三局參建...
2025-07-188684