AMD 在 AI 時代的策略佈局是什麼?台灣供應鏈誰最受惠?
本文關鍵要點
- AMD 押注 Chiplet 晶粒堆疊技術,以高效能運算(HPC)主軸從雲端到邊緣全面佈局 AI 市場
- MI300X GPU 搭載 192GB HBM3,硬體效能對標 NVIDIA H100,但軟體生態系仍是最大短板
- 根據 TrendForce 2025 年數據,台積電 CoWoS 月產能已達約 7.5 萬片,2026 年底規劃擴充至 11.5 至 13 萬片
- 日月光、信驊、欣興等台廠均站在供應鏈關鍵節點,直接受惠 AI 硬體需求擴張
- AMD 以開放生態對抗 CUDA 壁壘,軟體生態追趕是以年為單位計算的長期戰役
蘇媽的台大演講,為什麼投資人要認真拆解?
2024 年 4 月,AMD 執行長蘇姿丰在台大進行了一場超過一小時的公開對談。你可能會想:CEO 演講不就是那些場面話?
等等,先別這樣跳過。
這場演講的不尋常之處在於,蘇媽幾乎把 AMD 未來幾年的技術路線圖和市場定位都攤開來說了。不是公關稿的語言,是產業人在講具體佈局。對手上有台廠半導體持股的散戶來說,這等於是一份免費的供應鏈指引。同年 6 月,黃仁勳也走進台大,掀起另一波熱潮。兩場演講加在一起,幾乎把 2024 年台灣 AI 半導體的投資主軸都勾勒完了。
但兩個人說的話,背後意涵完全不一樣。讓我們從 AMD 這邊開始抽絲剝繭。
AMD 的核心策略是什麼?
Chiplet 晶粒堆疊:AMD 的技術底牌
AMD 對未來的定位清楚:高效能運算(HPC)是主軸。但支撐這個定位的底層技術,才是真正值得深挖的部分。
Chiplet 晶粒堆疊技術,說白了就是把不同功能的小晶片像積木一樣組合成一顆完整處理器。摩爾定律放緩是業界共識,半導體業的突破路徑正從「把電晶體做更小」轉向「把晶片組合更聰明」。AMD 在這條路上走得早,也走得深。
根據作者研究整理,Chiplet 架構有一個散戶比較少注意到的優點:可以混合使用不同製程節點製造各功能晶片,整體良率和成本控制比單一大型晶片更有彈性。這直接影響 AMD 的競爭定價能力——也是它在 NVIDIA 壟斷高端市場的情況下,依然能在部分客戶端打進去的核心原因。
從雲端到邊緣:全面佈局的邏輯
AMD 的野心不是只在某一個市場做到最強。雲端伺服器、邊緣裝置、PC、工業應用、車用電子,AMD 想要的是每一個算力需求成長的場景裡都有自己的份。
你有沒有想過,為什麼 AMD 不學 NVIDIA 把資源集中在最高毛利的資料中心 GPU?蘇媽給的答案很務實:AI 需求會從雲端往邊緣擴散,今天邊緣市場規模小,不代表三年後還是如此。提早佈局,是因為等市場成熟再進來代價更高。
這個策略聰不聰明?先記住這個問題。等到看完台灣供應鏈的拆解,你會有自己的判斷。
AMD 跟 NVIDIA 比起來,優勢和短板分別在哪?
硬體優勢:MI300X 規格怎麼看?
AMD 的 MI300X GPU 搭載 192GB HBM3 記憶體,在大型語言模型推論應用中,因記憶體容量更大,可一次載入更大的模型,部分測試效能對標 NVIDIA H100,甚至在特定工作負載上超越對手。搭配自家 Zen 架構 CPU,AMD 還能推出 CPU+GPU 異質整合方案 MI300A,把兩者封裝在一起,對需要高頻率 CPU-GPU 資料交換的 AI 工作負載特別有優勢。
硬體這關,AMD 已經有足夠強的牌。
問題不在這裡。
軟體劣勢:CUDA 壁壘有多高?
NVIDIA 的 CUDA 軟體生態系,已經經營超過十五年。全球絕大多數 AI 研究人員和工程師的程式碼都是基於 CUDA 寫的。工具鏈、框架支援、教學資源、社群慣性,每一層都是切換成本。
AMD 的 ROCm 平台持續進化,也拉到 Meta、IBM 等大廠合作推動,但要讓開發者大規模把程式碼搬過來,現階段的摩擦力還是很高。
AMD 的反制策略是走開放路線。有些客戶就是不想被單一供應商綁死。歐洲的 Leonardo 超級電腦、多個歐洲實驗室系統,選擇 AMD 陣營的原因不只是規格數字,更是供應商多元化帶來的議價空間和技術自主性。這群客戶的決策邏輯跟純效能優先的客戶完全不同。
老實說,AMD 的軟體生態追趕 CUDA 是一場以年為單位計算的長期戰役。短期看硬體規格,長期才能看生態黏著度。你自己決定哪個權重比較高。
AI 應用場景有哪些?蘇媽點出的三大潛力方向
蘇媽的判斷很明確:AI 現在只是「剛暖身」,未來十年才是真正的起跑線。她點出三個潛力場景,每一個背後的邏輯都不太一樣。
醫療與生命科學的需求最直接。疾病預測、新藥開發、基因分析,這些領域對算力的需求幾乎沒有上限。根據業界研究指出,AI 輔助有機會大幅縮短部分新藥臨床前篩選週期,光這個效率提升就足以驅動持續的硬體採購需求。
生產力革命的市場量更大,但單價偏低。流程自動化、智慧助理、企業知識管理,你每天上班可能已經在用,背後都需要更強的推論算力。這正好是 AMD 用性價比策略切入的主戰場。
永續與環境治理最難量化。能源配置優化、碳排監測、氣候模型模擬,目前商業化程度最低,但政策驅動力最強。長期邏輯清晰,節奏很難預測。
三個方向的共同點:AI 應用會從雲端逐漸往個人裝置和邊緣端擴散,正好對應 AMD 全面佈局的策略邏輯。這裡有個內在一致性,不是巧合。
台灣供應鏈哪些公司受惠最多?從矽到封裝全面拆解
台積電(2330):CoWoS 先進封裝的核心節點
台積電是整條供應鏈裡最無法繞開的一環。不管是 AMD 還是 NVIDIA,先進晶片的製造都少不了台積電的 5 奈米製程,以及 CoWoS(Chip-on-Wafer-on-Substrate)先進封裝服務。後者正是實現 Chiplet 架構和 HBM 記憶體堆疊的關鍵技術。
根據 TrendForce 研究機構 2025 年數據,台積電 CoWoS 月產能在 2025 年已達約 7.5 萬片,較 2024 年近乎翻倍;2026 年底更規劃衝上 11.5 至 13 萬片。這個擴產速度,直接反映了 AI 晶片需求的強度。
AMD 和 NVIDIA 都是台積電的大客戶。這意味著不管 AI GPU 市場的勝者最終是誰,台積電都接得到單。這是台積電作為投資標的的核心優勢——受惠確定性相對高,不押注單一廠商的勝負。
🔗 查看台積電(2330)最新收盤個股健檢與多維度財務分析報告
日月光(3711):千億投資搶進先進封裝市場
日月光正斥資千億打造新封裝基地,瞄準的就是 HPC 和 AI 加速器市場。先進封裝是這波 AI 硬體升級裡成長最快的環節之一,日月光進場的時間點不晚,卡位的位置也很清楚。
但仔細看日月光千億投資背後的邏輯:AI 晶片越複雜,封裝的技術門檻和附加價值就越高。日月光這次投資,本質上是在押注封裝技術的話語權,而不只是追量。這個差別很重要——追量的廠商很多,掌握技術話語權的廠商很少。
🔗 查看日月光(3711)最新收盤個股健檢與多維度財務分析報告
信驊(5274):AI 伺服器「管家晶片」需求爆發
信驊做的是 BMC(Baseboard Management Controller,基板管理控制器)晶片。簡單說,它是伺服器的管家,在作業系統層之外獨立運作,負責遠端監控、電源管理、溫度控制和故障診斷。
AI 資料中心越蓋越多,每一台 AI 伺服器都需要搭載 BMC 晶片。需求成長與 AI 伺服器建置速度直接連動。根據作者研究整理,信驊在 BMC 晶片市場具備相當高的市佔率,受惠邏輯清晰,營收預估年增約 30%,在台灣 AI 供應鏈個股中屬於相對亮眼的數字。
🔗 查看信驊(5274)最新收盤個股健檢與多維度財務分析報告
其他值得關注的供應鏈受惠個股
載板廠這邊,欣興(3037)、景碩(3514)、南電(8046)都在投入高階 ABF 載板和伺服器專用技術。ABF 載板是高效能晶片封裝的關鍵材料,需求跟著 AI 晶片出貨量走,幾乎是結構性的受益。
OEM 端的廣達(2382)、仁寶(2324)、緯創(3231)、技嘉(2376),受惠於 AI 伺服器、AI PC 和 FPGA 產品的出貨成長。這幾家吃的是終端需求擴張帶來的組裝和整合商機,毛利率相對低,但量的成長可觀。
投資人該怎麼看 AMD 和台廠的 AI 佈局?
把兩條主線放在一起看。
AMD 這邊:技術靠 Chiplet 和高效能運算搶市佔,生態靠開放平台和夥伴關係放大影響力。兩條路都在走,但軟體生態追趕 CUDA 是年度級別的工程,不是一兩個季度看得出勝負的賽局。
台灣供應鏈這邊,受惠邏輯清晰,台積電的位置最穩,因為不管誰做 AI 晶片都要用到它。信驊和日月光的受惠則更直接跟 AI 資料中心建置速度掛勾,需求可見度相對高。
假設你手上有一筆資金要配置在 AI 供應鏈主題,台積電、日月光、信驊各要佔多少比重?這個問題沒有標準答案,但思考這個問題的過程,本身就是理解供應鏈結構風險最好的方式。(請注意:此為假設情境,不構成任何投資建議。)
有一點要記住:供應鏈受惠的前提是終端需求持續成長。假如 AI 投資出現週期性調整,這些公司的營收也會跟著波動。不是「買了就穩賺」的事。
謎底揭曉了嗎?老實說還沒有。AMD 的軟體生態戰、台廠的產能擴張速度能否消化、AI 終端需求的週期性——這些變數要等市場繼續走才知道。我能做的,是幫你把已知的線索整理清楚。剩下的推論,你自己來。
常見問題
AMD 的 Chiplet 技術是什麼?對投資台灣供應鏈有什麼意義?
Chiplet 技術是指將不同功能的小晶片像積木一樣組合成一顆完整處理器的設計架構。相較於傳統單一大型晶片,Chiplet 可以混合使用不同製程節點製造各功能晶片,提升良率並降低成本。對台灣供應鏈而言,Chiplet 架構的普及直接帶動了台積電 CoWoS 先進封裝技術需求,同時推動日月光等封裝廠的技術升級和產能擴充,是台灣 AI 半導體供應鏈受惠的核心驅動力之一。根據作者研究整理,Chiplet 封裝的技術複雜度越高,台灣封裝廠的附加價值也越高。
AMD MI300X 和 NVIDIA H100 比起來,哪個更適合 AI 推論工作?
AMD MI300X 搭載 192GB HBM3 記憶體,在大型語言模型推論應用中,因記憶體容量更大,可一次載入更大的模型,部分測試效能對標甚至超越 NVIDIA H100。不過,NVIDIA H100 的優勢在於 CUDA 軟體生態系的完整度,超過十五年的積累讓絕大多數 AI 框架都對 CUDA 有原生支援。AMD 的 ROCm 平台雖持續進化,但開發者切換成本仍高。選擇哪個平台,通常取決於客戶對供應商多元化的需求程度,以及現有程式碼的遷移難易度。
台積電(2330)在 AMD AI 供應鏈中扮演什麼角色?
台積電是 AMD AI 晶片製造與封裝的核心供應商,負責高效能 GPU 和 CPU 的先進製程生產,同時提供 CoWoS 先進封裝服務,這是實現 Chiplet 架構和 HBM 記憶體堆疊的關鍵技術。根據 TrendForce 2025 年數據,台積電 CoWoS 月產能已達約 7.5 萬片,2026 年底規劃擴充至 11.5 至 13 萬片。台積電同時服務 AMD 與 NVIDIA 兩大 AI GPU 供應商,在 AI 晶片需求成長趨勢下,受惠確定性相對高,不依賴單一廠商的市場勝負。
信驊(5274)的 BMC 晶片是什麼?為什麼跟 AI 趨勢直接相關?
BMC(Baseboard Management Controller,基板管理控制器)晶片是伺服器的「管家」,在作業系統層之外獨立運作,負責伺服器的遠端監控、電源管理、溫度控制和故障診斷。AI 資料中心快速擴建,每一台 AI 伺服器都需要搭載 BMC 晶片,需求成長與 AI 伺服器建置速度直接連動。根據作者研究整理,信驊在 BMC 晶片市場具備相當高的市佔率,是台灣 AI 供應鏈中受益最直接、邏輯最清晰的標的之一,營收預估年增約 30%。
投資台灣 AI 供應鏈股票,最需要注意哪些風險?
台灣 AI 供應鏈的受惠邏輯建立在「終端需求持續成長」的前提上。主要風險包括:AI 資本支出的週期性調整(若雲端大廠削減 GPU 採購,上游出貨可見度會快速下降);地緣政治風險(台積電等核心製造廠位於地緣敏感地帶);技術路線競爭(替代晶片架構可能改變現有供應鏈格局)。根據作者研究整理,建議投資前充分了解個別公司的財務狀況和產業定位,評估自身風險承受能力,切勿將供應鏈受惠邏輯等同於穩定獲利保證。
本文內容由作者研究整理,部分資訊經 AI 輔助編排優化。資料僅供參考,不構成任何專業意見。如有疑問請洽詢相關專業人士。
喜歡我們的分析嗎?我們每天會在這裡更新最新資訊和投資心得,快來追蹤我們吧!










