股票

AI的榮景正要展開?ChatGPT浪潮席捲,哪些產業具投資潛力?

圖片來源:達志影像
摘要

1.2023年由於總體經濟放緩、企業獲利看法保守,企業多選擇降低資本支出,即便是擁有大量自由現金的科技龍頭公司也是如此。然而在AI投資熱潮下,不只是財報季期間提及AI一詞的企業家數屢創歷史新高。

2.其實無論是物聯網、雲端,抑或是大家看好的AI技術,背後的共同點就是都有天文數字的資料庫需要處理,因此誰能掌握更強大的算力,誰就能更容易的搶占市場份額,而高效能AI伺服器就是使運算力大幅升級最好的方法。

未來10年,人工智慧(AI)的潛力超乎想像。根據網路數據公司統計,從2022年年底ChatGPT出現到暴紅的短短3個月內,台灣的網路搜尋次數已高達7萬2,518筆,AI儼然已成為2023年最火熱的科技關鍵字之一,眾多關於AI的報導也如雨後春筍般出現,AI的熱度可見一斑。

究竟AI為什麼這麼令人期待?若以ChatGPT這個產品來說,現階段還屬於聊天機器人的範疇內,但未來極可能成為企業重要的「人」才來源。根據路透報導,Google內部文件透露ChatGPT通過了三級工程師測驗,這意謂ChatGPT編撰程式的能力至少有大學畢業的程度,對企業而言完全有使用它來降低投入成本的誘因。

而根據Precedence Research預估,2030年全球的AI產值將達1兆5,910億美元,相比於目前已經相當成熟的半導體產業,AI的榮景可能才正要展開(詳見圖1,另一種說法是,屬於AI的「iPhone時刻」才正要展開)。

 

2023年由於總體經濟放緩、企業獲利看法保守,企業多選擇降低資本支出,即便是擁有大量自由現金的科技龍頭公司也是如此。然而在AI投資熱潮下,不只是財報季期間提及AI一詞的企業家數屢創歷史新高,包括Meta、Google、Amazon及Microsoft等科技巨頭一致表態增加AI相關資本支出,可預期AI將是未來所有企業發展的重點。

由於AI在發展初期進入門檻較高,無論是研發或投資均需仰賴海量資源,這也使得目前AI市場幾乎由幾大科技巨頭主導。反映在股價上,2023年美股主要靠科技巨頭帶動,漲幅集中在標普500指數市值前7大企業,以權值計算漲幅高達70%,完全體現了今年全球股票市場「強者恆強」的現況。

掌握算力為勝出關鍵
高效能AI伺服器需求增

自2018年新興應用題材的帶領下,包含自駕車、AIoT與邊緣運算,諸多大型雲端業者開始大量投入AI相關設備建置。根據TrendForce估計,截至2022年年底為止,搭載GPGPU的AI伺服器年出貨量占整體伺服器比重近1%,而今年在ChatBot相關應用加持下,預估出貨量年成長可達8%;2022年~2026年年複合成長率將達10.8%(詳見圖2)。

 

SemiAnalysis首席分析師帕特爾(Dylan Patel)表示,如果將目前的ChatGPT部署到Google所進行的每次搜尋中,總計需要51萬2,820台A100 HGX伺服器和410萬2,568個A100 GPU,而這些伺服器和GPU的資本支出超過了1,000億美元。若是未來AI持續發展,再加上其他新興應用題材的需求,AI伺服器帶動的產值將會相當驚人。

5月底輝達(NVIDIA)執行長黃仁勳來台擔綱2023台北國際電腦展(COMPUTEX)開幕演講人,針對生成式AI趨勢,他談論了6大主題,包括高效運算、智慧應用、次世代通訊、超越現實、創新與新創、綠能永續。但最令人興奮的是,他提到NVIDIA將不再只賣晶片,而是向大企業出售整個AI超級運算系統,也就是AI伺服器。

其實無論是物聯網、雲端,抑或是大家看好的AI技術,背後的共同點就是都有天文數字的資料庫需要處理,因此誰能掌握更強大的算力,誰就能更容易的搶占市場份額,而高效能AI伺服器就是使運算力大幅升級最好的方法。

目前全球大約90%的伺服器生產都與台灣廠商息息相關,預計隨著伺服器的需求愈大,相關零組件的需求也就愈大,像是散熱、高速運算及高效電源管理等技術都是提高效率的關鍵。在這波AI新浪潮帶動運算力升級的需求下,台灣廠商可望掌握許多商機。

散熱領域應用日益增加,過去以消費性產品為主,未來還將跨入車用、LiDAR甚至是AI伺服器等應用。除了應用領域增加之外,技術層次亦隨著功耗(TDP)增加而變複雜,過去散熱普遍以氣冷式散熱(熱導管、VC)及風扇為主,而未來液冷式、浸沒式散熱將逐漸成為新主流。與AI相關的應用可運用在以下2類產品:

1.AI伺服器:趨勢上正逐漸由氣冷式散熱走向液冷式的方式,在伺服器新平台Genoa、Eagle Stream推出後,AI伺服器功耗將增加4成,隨著功耗增加,散熱模組的平均價格(ASP)也可望增加2~3成。

2.AI晶片:目前AI伺服器GPU大多以NVIDIA的A100晶片為主,技術上還只是採用台積電(2330)7奈米製程,然而NVIDIA公布新一代H100晶片將採用台積電4奈米製程,效能較A100提升6倍,與此同時功耗最高更有望增加1倍達700W,同樣伴隨著功耗增加,散熱模組的平均售價預計可增加3~4成。

下半年AI伺服器新平台及NVIDIA H100晶片都將開始供貨,預計有助於相關散熱模組公司的財報表現。無論未來AI技術發展到哪個階段,只要伺服器及晶片繼續推陳出新,相對應的效能及功耗也會增加,對散熱的需求將只增不減。

延伸閱讀
高齡族用意外險轉嫁風險,年繳1萬元還有失能保障,請看護也不怕!
挑選ETF存股標的,該看什麼指標?存股達人:用一個故事告訴你,為什麼你不能忽視選股邏輯


小檔案_張繼文

學歷:美國紐約Baruch大學財務金融碩士
經歷:瑞銀投信投資研究部主管、天達投顧研究部主管
現職:野村投信投資策略部副總經理