星期四, 4 12 月

NVIDIA 公布測試結果 旗下新一代 AI 伺服器能將大陸模型效能提升10 倍

輝達(NVIDIA)周三公布最新測試數據,顯示旗下最新一代 AI 伺服器可讓多項新模型的效能提升達 10 倍,包括兩款備受矚目的大陸熱門模型。(延伸閱讀:輝達禁入中國 黃仁勛:美國不該把整個中國市場讓給中國

AI 產業的重心正從輝達稱霸的模型訓練階段,轉嚮應用階段,也就是讓 AI 能真正服務廣大用戶。在應用市場方面,輝達面臨超微(AMD)、Cerebras 等更多競爭對手的挑戰。

輝達此次特別著重於「專家混合」(mixture-of-experts, MoE)模型的表現。這種架構透過把問題拆成好幾個部分,再分別交給模型內部不同的「專家」處理,藉此提升運算效率。今年這項技術爆紅,正因為大陸 DeepSeek 在 2025 年初推出一款高效能開源模型,訓練所需的輝達晶片遠低於同級競品,震撼全球 AI 社群。

經過DeepSeek的震撼,MoE技術也被 ChatGPT 開發商 OpenAI、法國的 Mistral,以及大陸的 Moonshot AI 採用;其中 Moonshot AI 今年 7 月也推出自家表現亮眼的開源模型。

與此同時,輝達著重強調的是:即使這類模型在訓練時用到的輝達晶片較少,但在模型上線服務時,輝達的硬體仍然是能支撐服務的主力。

輝達周三表示,旗下最新一代 AI 伺服器整合 72 顆旗艦晶片於單一系統,並以高速串連,能讓 Moonshot 的 Kimi K2 Thinking 模型效能相較上一代輝達伺服器提升 10 倍, 在DeepSeek 模型也有同樣增進的效能。

輝達指出,效能大幅躍升,主要來自伺服器能塞進大量晶片,以及晶片之間的高速連結,而這正是輝達目前仍優於競爭對手的關鍵。

超微也在打造類似、由多顆高效能晶片組成的伺服器,並表示最快明年就會上市。 $(document).ready(function () {nstockStoryStockInfo();});

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標註