NVIDIA GTC 2025 發布了什麼?台灣 AI 供應鏈哪些公司最受惠?
本文重點摘要
- Blackwell Ultra 架構效能較前代提升 1.5 倍,HBM3e 記憶體擴增至 288 GB,預計 2025 下半年由 Dell、AWS 等大廠推出產品
- Vera Rubin 架構 AI 推理效能較 Blackwell Ultra 快 3.3 倍,採用台積電 3 奈米製程,是 NVIDIA 下一代重點平台
- 台灣至少 10 家上市公司在 GTC 2025 展出 AI 伺服器、液冷散熱、電源方案,深度嵌入 NVIDIA 生態系
- 鴻海(2317)、台達電(2308)、技嘉(2376)為本次展會台灣代表性廠商,分別在機架、電源液冷、AI 伺服器方案有重要展示
- 投資方向建議聚焦:AI 伺服器組裝、資料中心散熱電源、邊緣 AI 晶片設計三大主軸
GTC 2025 到底在講什麼?一分鐘搞懂這場大會
NVIDIA GTC(GPU Technology Conference)是每年 AI 產業最重要的技術發表會之一。GTC 2025 聚焦三大主題:AI 代理人(AI Agent)、機器人技術、加速運算的未來。老實說,每年 GTC 的資訊量都大到讓人頭痛,但你只要抓住幾個關鍵產品發布,就能掌握未來一到兩年 AI 硬體的走向。
這次大會最讓市場興奮的,是 NVIDIA 一口氣端出了現在式的 Blackwell Ultra 和未來式的 Vera Rubin 兩大架構。一個是今年下半年就要出貨的東西,一個是讓你知道「下一步還有更猛的」。
對台灣投資人來說,重點不只是技術本身,而是這些技術背後的供應鏈訂單流向誰。
Blackwell Ultra 架構效能提升多少?有哪些升級?
Blackwell Ultra 是 NVIDIA 在 GTC 2025 正式推出的新一代 GPU 架構,整體效能較前代 Blackwell 提升 1.5 倍。這不是漸進式的小升級,而是在幾個關鍵指標上都有感的跳升。
記憶體方面,HBM3e 高頻寬記憶體從原本容量擴增 50%,來到 288 GB。你可能會問:記憶體大有什麼用?簡單講,大型語言模型(像 ChatGPT 背後那種等級的模型)需要把大量參數載入記憶體才能運作,288 GB 意味著能跑更大、更精準的模型。
推理效能部分,FP4 推理加速 50%,單顆 B300 GPU 記憶體頻寬達 8 TB/s,FP4 張量核心運算能力約 15 PFLOPS;而 GB300 超級晶片(1 顆 Grace CPU + 2 顆 B300 GPU)合計則達約 30 PFLOPS(資料來源:NVIDIA GB300 NVL72 官方規格頁,2025)。
資料中心平台:兩種散熱方案各有定位
NVIDIA 這次推出兩款資料中心級平台,分別對應不同部署需求:
- GB300 NVL72(水冷式):FP4 密集運算能力達 1.1 exaflops,適合大規模 AI 訓練場景
- HGX B300 NVL16(風冷式):大型語言模型推理速度較 Hopper 平台快 11 倍,運算能力提升 7 倍,記憶體容量增加 4 倍,適合企業級推論部署
預計 2025 年下半年,Dell、Cisco、HPE、Lenovo、Supermicro 等硬體大廠,以及 AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure 等雲端供應商都會推出搭載 Blackwell Ultra 的產品。這也是為什麼台灣代工和零組件廠商會在這個時間點密集展示方案。
Vera Rubin 架構是什麼?為什麼被稱為「明日之星」?
Vera Rubin 是 NVIDIA 在 Blackwell 之後的下一代架構,採用台積電 3 奈米製程。這名字來自美國天文學家 Vera Rubin,她以暗物質研究聞名,NVIDIA 用她的名字替下一代 GPU 命名。
幾個關鍵規格讓我自己看了也蠻驚訝的:
- Vera CPU(Olympus 核心):NVIDIA 自研處理器,88 核心、176 執行緒,效能預計為 Grace CPU 的 2 倍,強調能源效率較傳統 CPU 架構提升一倍,整合高速 NVLink C2C 技術(資料來源:NVIDIA Vera CPU 產品頁,2025;註:NVIDIA 尚未公開 Vera CPU 具體 TDP 數值)
- Rubin GPU:FP4 精度達 50 petaFLOPS,AI 推理效能較 Blackwell Ultra 快 3.3 倍。配備 288 GB HBM4 記憶體,頻寬高達 22 TB/s(資料來源:NVIDIA Technical Blog,2025)
快 3.3 倍是什麼概念?假設你現在用 Blackwell Ultra 跑一個大型推理任務要 10 分鐘,Vera Rubin 大約 3 分鐘就能完成。對雲端服務商來說,同樣的機房空間和電力,能服務的客戶數量直接翻倍以上。
但這裡有個我覺得值得留意的點:Vera Rubin 目前還在開發階段,量產時程尚未明確公布。投資上不宜過度提前布局,但它確認了 NVIDIA 的技術路線圖,也等於告訴供應鏈「訂單會持續來」。
GTC 2025 還發布了哪些 AI 技術?
生成式 AI 工具升級
NVIDIA 發布 Llama Nemotron 開放推理模型,在數學推理、程式碼生成等任務上準確性提高 20%,推理速度提升 5 倍。另外 RTX Pro Blackwell 結合 RTX 技術與生成式 AI,讓 Runway、Sora 等 AI 創作工具的效率和成本都有改善。
Dynamo 這個工具也值得注意,它專門優化數千顆 GPU 在 AI 推理時的溝通路徑。你可以想像成一間大工廠裡,Dynamo 就是負責讓每台機器不要閒置、不要互相等待的調度員。
機器人與自動駕駛
Isaac GR00T N1 是全球首個開放且可客製化的人形機器人基礎模型。聽起來很科幻,但 NVIDIA 這次同時發布了搭配的模擬環境(Cosmos、Newton、Omniverse),讓機器人可以在虛擬世界裡先練功再到現實部署。
自動駕駛方面,NVIDIA 與通用汽車(GM)宣布戰略合作,共同開發下一代自駕車。Halos 安全系統和 Omniverse 模擬平台則提供駕駛測試的安全保障。
量子運算布局
NVIDIA 在波士頓設立加速量子研究中心,與哈佛、MIT 合作研究混合量子運算。這部分離商業化還有一段距離,但 NVIDIA 用 GPU 加速量子演算法驗證的思路,等於幫自家產品找到了另一個長期應用場景。
台灣供應鏈在 GTC 2025 有哪些廠商參展?各自扮演什麼角色?
GTC 2025 台灣廠商的參展陣容相當完整,幾乎涵蓋了 AI 伺服器從晶片到機架、從電源到散熱的每一個環節。根據作者研究整理,以下是各廠商的重點展示內容:
AI 伺服器組裝與系統整合
| 廠商 | 代號 | GTC 2025 展示重點 |
|---|---|---|
| 鴻海 | 2317 | 搭載 72 顆 Blackwell Ultra(B300)GPU 的 GB300 NVL72 伺服器機架(1.1 ExaFLOPS FP4)及液冷技術(資料來源:NVIDIA 官方產品頁,2025) |
| 和碩 | 4938 | GB300 NVL72 AI 伺服器,與 Axiado 合作整合 TCU 安全技術 |
| 華碩 | 2357 | ASUS AI POD(Blackwell GPU + InfiniBand)及 Ascent GX10 AI 超級電腦 |
| 技嘉 | 2376 | GIGAPOD AI 機架解決方案(HGX B300 NVL16 平台),與 Axiado 導入 TCU 晶片資安防護 |
| 微星 | 2377 | 搭載 HGX B100/B200 GPU 的 AI 伺服器,自主移動機器人(AMR)智慧工廠應用 |
| 英業達 | 2356 | P4000G7 AI 伺服器(NVIDIA MGX 模組化架構),涵蓋邊緣 AI、雲端訓練與資料中心推論 |
電源與散熱方案
| 廠商 | 代號 | GTC 2025 展示重點 |
|---|---|---|
| 台達電 | 2308 | 液冷技術與 AI 伺服器電源解決方案,NVIDIA Omniverse 應用於智慧工廠 |
| 光寶科技 | 2301 | 首次參展 GTC,AI 伺服器電源與液冷模組 |
| 雲達×光寶 | — | 聯合展示支援 GB200/GB300 NVL72 的 33kW AI 機櫃電源方案 |
IC 設計
聯發科(2454)雖然不是 GTC 展場的焦點,但在邊緣 AI 和終端 AI 領域持續布局。當 NVIDIA 把雲端和資料中心的算力推到新高度,終端裝置上的 AI 推論需求也跟著水漲船高,這是聯發科的長期機會所在。
看到這張清單,你大概能理解為什麼市場說「NVIDIA 每次開 GTC,台灣供應鏈就跟著動」。
從 GTC 2025 看台灣 AI 概念股的投資方向?
把 GTC 2025 的技術發布對應到投資邏輯,我整理出三條主要的受惠路線:
路線一:AI 伺服器組裝廠
鴻海(2317)和技嘉(2376)在這條線上最直接。Blackwell Ultra 帶動的 GB300 NVL72 機架需求,組裝和整機出貨的訂單就是他們的菜。你可以把他們想成 NVIDIA 新手機發布後的代工廠——晶片越賣越多,組裝廠的出貨量就跟著上去。
路線二:資料中心基礎建設
台達電(2308)和光寶科技(2301)屬於這條線。AI 伺服器的功耗越來越高,GB300 NVL72 單一機櫃功耗就到 33kW 等級,散熱和電源供應變成剛需中的剛需。液冷技術不再是「加分項」,而是「沒有就不能出貨」的基本門檻。
路線三:邊緣 AI 與終端晶片
聯發科(2454)走的是不同路線,不跟 NVIDIA 直接在資料中心搶市場,而是在手機、車載、IoT 裝置上做邊緣推論。當雲端 AI 模型越做越大,「如何把推論結果快速送到終端」或「讓終端自己跑小模型」的需求也同步成長。
假設你手上有 100 萬的資金想布局 AI 供應鏈,與其全押單一檔,不如考慮把資金分散在這三條路線上。組裝廠吃短期訂單爆發、電源散熱吃中期基礎建設需求、邊緣 AI 晶片則是長期趨勢。當然,這只是一種思考框架,實際操作還是要看個股的財報數字和估值水位。
我自己怎麼看 GTC 2025 對台股的影響?
講真的,每年 GTC 結束後台股 AI 族群都會有一波行情,但不是每次都能持續。我自己的觀察是,市場通常會先炒「題材想像」,等實際出貨數字出來後才會分出真正受惠和只是沾邊的公司。
這次比較不一樣的是,台灣廠商不只是展示概念品,鴻海和技嘉都已經拿出搭載 Blackwell GPU 的實機方案。這代表供應鏈的準備度比往年更高,從「未來可能接到單」進化到「東西已經做出來了,就等客戶下單」。
但我也不敢斷定短期股價一定會怎麼走。AI 相關個股的本益比普遍偏高,如果你是追高買進,回檔的壓力也不小。
比較穩健的做法是觀察 2025 下半年 Blackwell Ultra 實際出貨後,各廠商的營收數字有沒有跟上。數字說話,比任何題材都可靠。
常見問題
NVIDIA GTC 2025 的 Blackwell Ultra 架構效能提升多少?
Blackwell Ultra 整體效能較前代 Blackwell 提升 1.5 倍,HBM3e 記憶體擴增至 288 GB,FP4 推理效能加速 50%。B300 GPU 核心記憶體傳輸速度達 8 TB/s,FP4 張量核心運算力高達 30 PFLOPS,預計 2025 下半年由 Dell、AWS 等大廠推出相關產品。
Vera Rubin 架構和 Blackwell Ultra 差在哪裡?
Vera Rubin 是 NVIDIA 在 Blackwell 之後的下一代架構,採用台積電 3 奈米製程,AI 推理效能較 Blackwell Ultra 快 3.3 倍。搭載 NVIDIA 自研 Vera CPU(88 核心、功耗 50W)和 288 GB HBM4 記憶體(頻寬 13 TB/s),目前仍在開發階段,量產時程尚未公布。
台灣哪些公司是 NVIDIA AI 供應鏈的主要受惠廠商?
GTC 2025 台灣主要參展廠商包括鴻海(2317)、台達電(2308)、技嘉(2376)、華碩(2357)、和碩(4938)、光寶科技(2301)、微星(2377)、英業達(2356)等,分別在 AI 伺服器組裝、液冷散熱、電源方案等環節深度參與 NVIDIA 生態系。
GTC 2025 對台股 AI 概念股的投資方向有什麼啟示?
根據作者研究整理,GTC 2025 的投資邏輯可分三條路線:AI 伺服器組裝(鴻海、技嘉)受惠短期訂單爆發、資料中心電源散熱(台達電、光寶)吃中期基礎建設需求、邊緣 AI 晶片(聯發科)布局長期終端推論趨勢。建議分散配置而非單押個股。
本文內容由作者研究整理,部分資訊經 AI 輔助編排優化。資料僅供參考,不構成任何投資建議或專業意見。投資有風險,入市前請審慎評估自身風險承受能力,如有疑問請洽詢相關專業人士。
喜歡我們的分析嗎?我們每天會在這裡更新最新資訊和投資心得,快來追蹤我們吧!










