眾所周知,自從ChatGPT火爆之后,很多人都在反思,為什么ChatGPT這樣的業(yè)務(wù)不是從中國(guó)誕生,而是在美國(guó)誕生的。
很多人表示,這是因?yàn)橹忻繥PU差距相差10年以上,而GPU芯片才是ChatGPT的核心,因?yàn)镃hatGPT需要高性能、高算力。
(相關(guān)資料圖)
按照機(jī)構(gòu)的說法,GPT-3訓(xùn)練時(shí)大概用到了20000個(gè)NVIDIA A100 GPU左右的算力,而ChatGPT商業(yè)化后所需的GPU數(shù)量將達(dá)到30000個(gè)以上。
而中國(guó)的GPU與美國(guó)的GPU差距太大,再加上美國(guó)不準(zhǔn)A100這樣的GPU芯片賣到中國(guó)來。
所以中國(guó)不太可能基于美國(guó)的GPU,在沒有沒有搞出ChatGPT的情況下,中國(guó)首發(fā)ChatGPT這樣的業(yè)務(wù)出來。
那么中國(guó)的GPU落后美國(guó)10年么?近日科大訊飛表示不服,他說華為的GPU芯片,已經(jīng)對(duì)標(biāo)英偉達(dá)的A100了。
科大訊飛搞了一個(gè)星火大模型這樣的AI產(chǎn)品,類似于ChatGPT。而科大訊飛表示,到今年 10 月 24 日,科大訊飛將發(fā)布通用大模型,全面對(duì)標(biāo) ChatGPT ,且要實(shí)現(xiàn)中文全面超越。
而科大訊飛的大模型,是基于華為的GPU芯片的,所以科大訊飛才敢說,華為的 GPU 能力現(xiàn)在已經(jīng)跟英偉達(dá) A100 一樣了。
A100是英偉達(dá)2020 年發(fā)布的AI芯片,采用了全新的Ampere架構(gòu),7nm工藝,配備了6912個(gè)CUDA核心,算力高達(dá)19.5 TFLOPS。
在A100上,采用了新一代的HBM2E內(nèi)存,擁有40GB高速內(nèi)存,傳輸帶寬達(dá)到1.6TB/s,也是目前眾多AI大模型采用的芯片。
另外英偉達(dá)今年還推出了H100,不過H100太貴太高端了,所以A100相對(duì)而言,更為搶手,至于中國(guó)大陸,由于A100不能賣,所以英偉達(dá)推出的是A800這一款閹割版,相比A100,性能稍弱一些,但也一卡難求,非常難買到。
如今,科大訊飛說華為的GPU,已經(jīng)對(duì)標(biāo)英偉達(dá)的A100,那么也意味著,國(guó)產(chǎn)AI大模型,完全不必依賴英偉達(dá)的GPU芯片了,國(guó)產(chǎn)GPU已經(jīng)站起來了,我們?cè)贕PU芯片上,與美國(guó)的差距,絕對(duì)沒有10年這么大,你覺得呢?
營(yíng)業(yè)執(zhí)照公示信息