華西證券預測,全球AI軟件市場規模將在2025年達到1260億美元,2021年到2025年復合增長率為41.02%。
ChatGPT繁榮的背后,是堪稱天文數字的算力支持。
據測算,AI訓練服務器方面,單個大語言模型訓練驅動AI訓練服務器需求約2億美元;AI推理服務器方面,如ChatGPT在初期便可帶動推理服務器需求約45億美元。
一時間,ChatGPT們層出不窮,而它們背后的AI服務器賽道也開始隨之水漲船高。
算力決定ChatGPT
算力作為大模型的核心引擎,它的計算公式很簡單:有多少枚GPU芯片就能產生多大的算力,高端GPU芯片的數量,能直接影響算力的大小。
ChatGPT所需要的算力并不是固定的,反而是逐次遞增。ChatGPT越聰明,背后的代價是所需算力越來越多。
據媒體推測,GPT-3訓練成本預計在500萬美元/次,GPT-3模型需花費訓練成本約140萬美元,Google的PaLM模型需花費訓練成本約1120萬美元。
據微軟高管透露,為ChatGPT提供算力支持的AI超級計算機,是微軟在2019年投資10億美元建造的一臺大型頂尖超級計算機,配備了數萬個英偉達A100 GPU,還配備了60多個數據中心總共部署了幾十萬個英偉達GPU輔助。
為了滿足與日俱增的ChatGPT算力需求,微軟宣布將推出基于英偉達最新旗艦芯片H100 GPU和英偉達Quantum-2 InfiniBand網絡互連技術,推出Azure可大規模擴展的AI虛擬機系列,以顯著加速AI模型的開發。
看上去,ChatGPT的背后就是滿篇的英偉達、英偉達和英偉達。
實際上,英偉達作為硬件霸主,不僅在消費級市場占據大部分市場,也是AI服務器芯片領域的頭號選擇。
物以稀為貴,目前英偉達的旗艦芯片H100,在一周時間漲價近7萬元人民幣,售價普遍高達30萬元左右;次旗艦A100芯片在短短三個月多時間里,從6萬元一路漲至9萬元,漲幅超過50%。
不僅漲價買不到,甚至美國還禁止英偉達賣芯片。在去年8月,美國政府發布出口管制政策,禁止英偉達將A100、H100兩款芯片售往中國。
為了不丟掉中國市場,又符合美國出口管制,英偉達隨后推出性能閹割版A800、H800芯片。但這兩款芯片同樣被供不應求的市場一搶而空,價格也隨之水漲船高。
以百度阿里騰訊為首,國內大部分互聯網公司都已經宣布進軍大模型。市場統計,從ChatGPT之后,中國年內即將推出的大模型數量已超10個。
如果想要達到ChatGPT的水準,至少需要3000枚A100芯片,以9萬/枚的價格來算就是2.7億人民幣才能完成一個大模型部署;10個大模型就需要3萬枚A100芯片,27億人民幣。
加上后期訓練成本,所需要的芯片更是天文數字。但按照目前英偉達的交貨時間來看,想要買到足夠的芯片,可不是一件容易的事情。
恍惚間,礦卡時代又再次來臨。
再次坐在風口的英偉達
在前些年虛擬貨幣火熱的時候,作為挖礦必備的顯卡提供商,英偉達幾年時間大賺特賺了48億美元。如今又靠著ChatGPT活出第二世,讓歷史再次重演。
面對市場需求激增,借AI浪潮翻身的英偉達很雞賊的推出算力租賃服務。
3月21日,2023年GTC大會上,英偉達創始人兼首席執行官黃仁勛推出NVIDIA DGX Cloud,可以為企業提供訓練生成式AI高級模型所需的基礎設施和軟件。DGX Cloud每個實例配有8個H100或A100 80GB GPU,企業可以云租賃的形式按月租用DGX Cloud集群,價格為每實例3.7萬美元/月起。
英偉達真的沒有替代品嗎?為什麼企業寧愿選擇租賃,也不選擇其他GPU芯片商?
IDC數據顯示,國內GPU服務器在2021年占國內服務器市場規模的比例超過88.4%,使用英偉達的產品占比超80%。
AI大模型所需要的芯片在處理信息的精細度和算力速度要求更高,在超算領域,雙精度浮點計算能力FP64是進行高算力計算的硬性指標。而英偉達的H100、A100是目前唯一具備這些能力的芯片。
美國卡脖子的并不只有英偉達芯片的售賣,從技術、設備、材料都限制中國企業的研發。但在美國的重重限制下,中國企業仍然頂著壓力跑出幾匹黑馬。
根據IDC最新發布的《中國加速計算市場(2021年下半年)跟蹤報告》,2021年全年中國AI服務器市場規模達350.3億元,同比增長68.6%。
在企業級GPU芯片領域,中國廠商壁仞科技在2022年推出BR100芯片、天數智芯推出了智鎧100芯片、寒武紀推出了思元270芯片。
其中壁仞科技稱,BR100擁有全球最高算力,峰值算力達到了市場在售旗艦產品的三倍以上,16位浮點算力達到1000T以上、8位定點算力達到2000T以上,單芯片峰值算力達到PFLOPS級別。
雖然數據良好,但缺少至關重要的處理FP64的能力,依然無法完全取代英偉達H100、A100倆兄弟。
并且,英偉達使用的CUDA平臺早已成為應用最為廣泛的AI開發生態系統,只支持英偉達的Tesla架構GPU,在現階段根本無法用國產芯片取代。
雖然中國芯片廠商正在對GPU芯片領域奮起直追,但技術差距和美國卡脖子仍是關鍵性問題,還需要一段時間的努力。
不止AI服務器
借著大模型東風一路上揚的不止AI服務器和GPU芯片,還有儲存器市場。
ChatGPT的運行條件包括訓練數據、模型算法和高算力,其中高算力的底層基礎設施是完成對海量數據、訓練的基礎。
最顯而易見的特點就是ChatGPT經歷數次迭代之后,參數量從1.17億增加到1750億,近乎兩千倍的增長,也給計算存儲帶來極大的挑戰。
AI新時代開啟,預計全球數據生成、儲存、處理量將呈等比級數增長,存儲器將顯著受益。而計算存儲是ChatGPT的重要基石,隨著阿里、百度等科技巨頭類ChatGPT項目入局,整體計算存儲市場需求將進一步快速提升。
隨著AIGC持續火熱,北京、上海、廣州等數字經濟發達地區也出臺了政策推進智算中心建設。比如,北京市提出新建一批計算型數據中心和人工智能算力中心,到2023年,培育成為人工智能算力樞紐;上海市提出布局建設一批具有高性能、高吞吐的人工智能算力中心,推動公共算力服務平臺建設等。
而各行各業都將面臨著ChatGPT的洗禮,在迎新一輪人工智能的浪潮下,和AI相關的行業將會迎來廣闊的市場空間。
而中國企業也勢必會沖破美國掣肘,打破不公平的桎梏。
發文者:鏈站長,轉載請註明出處:https://www.jmb-bio.com/5313.html