以低成本、高效能撼動全球人工智慧(AI)產業格局的中國企業DeepSeek,最新傳出將以大模型DeepSeek R2強勢推出。市場最新爆料,R2大模型將採用更先進的混合專家模型(MoE),總參數量較前代R1提升約1倍,預計達1.2兆,單位推理成本較GPT-4大減97.4%。
時值美中科技戰延燒,美國AI晶片巨頭輝達(NVIDIA)的中國「特供版」晶片H20面臨新一波出口管制,與此同時,DeepSeek R2預期發布時間臨近,各界高度關注中國指標性大模型在缺乏美國晶片資源下的發展動向。
法人指出,DeepSeek R2將是觀察中國AI技術進步的關鍵節點,該產品採用華為昇騰910C晶片,AI應用有望更加快速落地,邊緣運算包括手機及物聯網概念股包括聯發科、電源廠台達電、光寶及PA業者穩懋、宏捷科可望受惠。
DeepSeek R1於美東時間1月27日發布時,曾導致美國科技股大幅下跌,輝達單日市值蒸發近6,000億美元,NASDAQ下跌3.1%。法人指出,R2若如傳聞般強勢,可能再次引發市場對AI基礎設施需求的質疑,要提防對輝達等晶片廠的影響。
社群平台X玩家@deedydas於27日晚間爆料DeepSeek-R2最新參數,引發網友討論。據傳R2規模與ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相當,還將結合更智慧的門控網路層(Gating Network),進而優化高負載推理任務的性能。
消息指出,R2將徹底擺脫輝達晶片,訓練全程皆未使用輝達顯卡,全部基於昇騰910B(Ascend 910B)晶片集群平台,在FP16精度下,計算性能達到512 PetaFLOPS,晶片利用率高達82%,整體性能約為輝達上一代A100集群的91%。
市場預期,這有望降低中國對海外高端AI晶片的依賴,且華為全新的昇騰910C晶片亦開始進入大規模量產階段,CloudMatrix 384超節點採用384顆昇騰910C晶片,或將成為輝達NVL72集群的替代方案。
成本方面,DeepSeek-R2的單位推理成本較美國企業OpenAI旗下的GPT-4大減97.4%。其中,R2輸入(input)每百萬個字元僅需0.07美元;而輸出(output)每百萬個字元僅0.27美元。
※ 本文內容由《工商時報》授權刊載,未經同意禁止轉載。點選更多財經熱門新聞,追蹤 FB 、 Line@。