ICC訊 9月4-5日,第21屆訊石光研討會(iFOC 2023)圓滿舉辦!本屆會議吸引了來自近700家企業(yè)的1000多位嘉賓出席,聆聽行業(yè)專家學者及技術骨干的干貨分享及巔峰對話,共享光通信行業(yè)的前沿技術及市場信息。
訊石信息咨詢高級分析師吳娜在9月5日的主論壇《算力光網(wǎng)與光纖通信技術發(fā)展》上發(fā)表《AI驅動下光模塊市場需求預測》的主題演講。
訊石吳娜
ChatGPT掀起生成式AI熱潮,國內外企業(yè)紛紛加速AI布局。相關數(shù)據(jù)顯示,在過去8個月里,Hugging Face(正逐步成為全球最大的大模型庫)上的預訓練模型數(shù)量從此前積累的10萬個增長到了超過30萬個。今年上半年,國內發(fā)布的各類大模型數(shù)量超過100個,其中參數(shù)在10億規(guī)模以上的大約80個。根據(jù)OpenAI的研究,AI訓練所需算力增速超越硬件的摩爾定律。
隨著GPT-3等大模型參數(shù)增長超過GPU內存的增長,HBM(高帶寬存儲器)成為AI服務器標配。存儲龍頭SK海力士的HBM目前已發(fā)展到第五代HBM3E,最高每秒可以處理1.15TB的數(shù)據(jù),進一步拉大內存帶寬與網(wǎng)絡帶寬的差距。
為解決網(wǎng)絡帶寬瓶頸,數(shù)據(jù)中心網(wǎng)絡架構需要變革。傳統(tǒng)樹形網(wǎng)絡拓撲中,帶寬逐層收斂,樹根處網(wǎng)絡帶寬要遠小于各個葉子處所有帶寬的總和。而胖樹則更像真實的樹,越到樹根,枝干越粗,即從葉子到樹根,網(wǎng)絡帶寬不收斂,可以提高網(wǎng)絡效率,加快訓練速度。這是胖樹架構能夠支撐無阻塞網(wǎng)絡的基礎。由于不做收斂,需要更多的光口來保證上下行速率一致,因此增加了光模塊數(shù)量。
為縮小存儲帶寬和網(wǎng)絡帶寬的差距,英偉達引入了服務器間GPU All-to-all直連。在英偉達DGX H100集群中,不同服務器的GPU之間使用NVLink連接到NVSwitch進行通信,因此新增了一套NVSwitch相連的光網(wǎng)絡系統(tǒng),每個服務器有18個OSFP和NVSwitch相連,大幅增加了光模塊用量。
AI應用掀起光連接需求新浪潮?,F(xiàn)階段,英偉達H100的需求火爆異常,訂單量已經(jīng)排滿到2024年。知情人士透露稱,英偉達目前計劃將旗艦H100顯卡的產(chǎn)量至少增加兩倍,到2024年H100的出貨量將達到150萬至200萬塊,比今年預期的50萬塊大幅躍升。
從業(yè)內觀點來看:行業(yè)正處于與AI/ML部署相關的長達十年的大趨勢的拐點。LC估計,未來五年,AI集群應用光收發(fā)器收入將占同期以太網(wǎng)光收發(fā)器總收入的38%。Coherent在其股東信函中估計,未來五年內,800G、1.6T和3.2T數(shù)通收發(fā)器市場的CAGR將超40%;到2028年甚至可能更早,與AI相關的800G和1.6T數(shù)通收發(fā)器出貨量將占所有數(shù)通收發(fā)器出貨量的近40%。
當然新事物的誕生與興起,都伴隨著一些質疑和不確定性。比如,2023年6月,ChatGPT訪問量首次下降,有人認為人們對ChatGPT的新奇感已漸漸消失;野村證券前分析師Richard Windsor表示,除非出現(xiàn)一個人們愿意每月花20美元購買AI應用的大眾市場,否則泡沫可能會迅速破滅,并波及相關企業(yè);由于不清楚生成式AI產(chǎn)品的擴張速度,Meta等Hyperscaler對AI投資還存在不確定…..等等。
但亞馬遜云科技 CEO Adam Selipsky也表示:“生成式AI目前處于非常早期的階段,就像十公里比賽剛跑出幾步……它將給世界帶來突破式的變革,且有可能是自互聯(lián)網(wǎng)誕生以來最大的變革?;ヂ?lián)網(wǎng)使知識普惠化,生成式AI將使人工智能技術普惠化?!?
在演講的最后,吳娜總結道: AI應用的興起與普及將驅動數(shù)據(jù)中心網(wǎng)絡架構變革,從而促進數(shù)據(jù)中心基礎設施投資增長。AI應用需求將為光模塊行業(yè)帶來多少機遇,讓我們拭目以待!