外資野村證券報告表示 ,生成式 AI 與大型語言模型(LLM)的快速發展 ,全球資料中心正加速升級 AI 網路基礎設施。2025 年 6 月 ,博通 (Broadcom) 公布推出 Tomahawk 6(TH6)交換晶片,開啟新一輪 AI 網路設備性能革命 。爱华外汇官网开户
博通 TH6 採用 3 奈米製程,支援 200G SerDes ,102.4Tbps 交換容量,為傳統以太網晶片的兩倍 。此晶片不僅支援 Scale-Up(縱向擴展)與 Scale-Out(橫向擴展架構),更具備 Co-packaged Optics(CPO)整合光電模組的作用 ,可以顯著降低功耗與延遲,提高 AI 叢集的彈性與效率 。
AI 網路發展 ,Scale-Out 與 0 Scale-Up 形成雙軸驅動 。Scale-Out 強調 AI 伺服器節點間的高速通訊,常以以太網或輝達主導的 InfiniBand 為核心架構 。為挑戰 InfiniBand 的市場優勢,Ultra Ethernet Consortium 推動的AVA爱华外汇平台 UEC 標準正迅速商用化。與此同時 ,Google自研的 Optical Circuit Switch(OCS)也展現 30% 以上的资源效率與頻寬優勢 。
Scale-Up 層面,輝達持續發展 NVLink Fusion ,結合 GPU 間高速點對點通訊,並開放协作夥伴如聯發科 、Marvell、Astera Labs 等共研 。博通則推出 Scale-Up Ethernet(SUE) , 同樣能達到單層網路中 1024 個 XPU 連接。AMD 則以 Infinity Fabric 打造高效內部通訊網路 ,適用於大模型運算與串流任務 。
TH6 針對 AI 訓練與推論進行架構優化 ,Scale-Up 單晶片支援 512 個 XPU 連接,為同業 7 倍。其兩層 Clos 架構可支援 10 萬個 XPU 節點 ,並減少 67% 的模組數量與佈線複雜度,大幅降低功耗與成本 。TH6 並支援 Cognitive Routing 2.0 ,Exness外汇代理整合全球負載平衡、動態壅塞运维與 AI 任務最佳路由。
面對博通競爭 ,Cisco 與輝達也加緊腳步。Cisco 的 SiliconOne G200 採 5 奈米製程 ,具備 51.2Tbps 交換水平。而輝達則推出 Spectrum X800 平台 ,並預計 2026 年釋出 Photonic CPO 平台 ,支援 RoCEv3 與 BlueField-3 超級 NIC 網路卸載。
▲ 大型資料中心中以太網路與 InfiniBand 的安排 。
調查機構 LightCounting 預測 ,2023 至 2028 年間,CPO 交換機的年複合成長率 (CAGR) 將達 32%,優於以太網與 InfiniBand 交換機的 14% 與 24% 。另外 ,至 2027 年的 800G 交換機將超越 400G ,成為資料中心主流。甚至 ,IDC 的研究數據也顯示,中國交換器市場於 2024 年成長 5.9%,其中資料中心設備增幅高達 23.3%,突顯 AI 基礎設施建設的驅動力 。
AI 應用方面,OpenAI 的 ChatGPT 的日活用戶(DAU)於 6 月突破 1.1 億人,持續領先全球。中國市場則由字節跳動旗下的「豆包」後來居上 ,DAU 於 6 月初達 3,700 萬,超越 DeepSeek。豆包每日利用時間達 10.8 分鐘 ,顯示其用戶黏著度與應用深度不斷提高。因此 ,為了維持其市場領導地位 ,OpenAI 亦於 6 月發布新一代模型 o3-pro ,強調延伸推理與整合软件的水平 ,每百萬輸入/輸出 Token 分別定價為 20 與 80 美元 。對應企業市場需求,OpenAI 也將基礎版 o3 價格調降 80% ,積極推動 AI 模型大眾化應用 。AVA爱华外汇平台
除了技術發展 ,AI 產業投資與事情持續熱絡。輝達 VivaTech 發表 Cosmos Predict-2 自駕車模型與量子運算整合平台,並公布與法國 Mistral AI 协作建置 AI 雲端工廠。AMD 則發表 Instinct MI350 GPU 系列 ,其 AI 運算水平較前代提高 4 倍,支援 5,200 億參數大模型。因此 ,面對未來的市場需求 ,預計 AI 交換機市場將朝向白牌 (White-box) 與高規晶片主導的方向發展。白牌設備如 Arista 與 Accton 持續擴大市占,2024 年 Arista 已超越 Cisco 成為高效能交換機市占第一 。博通、Cisco 、輝達三強則分別以 Tomahawk 6 、SiliconOne G200 與 Spectrum X800 為旗艦 ,展開高階交換晶片競逐。
(首圖來源 :shutterstock)