日前,在剛剛舉行的2023云棲大會上,百川智能創(chuàng)始人王小川暢談大模型時代,復旦特聘教授漆遠借助復旦大學智能計算平臺CFFF引出人工智能推動科研范式變革,也有基于AIGC能力的兒童故事產品帶來分享。
當一場云計算大會由AI相關內容占據(jù)主論壇的半壁江山,或許已經說明了“計算”風向:AI正在成為不可忽視的計算主角。
AIGC將有更多爆發(fā)2024年是大模型商業(yè)化元年
過去十來年,云計算不斷發(fā)展、應用,服務了社會數(shù)字化進程。今天,隨著大模型技術的迅速發(fā)展,智能化時代正在開啟。人工智能將成為各行各業(yè)的新型生產力,以ChatGPT為代表的大模型應用僅僅是一個開始。
今年以來,眾多大模型產品發(fā)布,基于大模型的AIGC技術在文本生成、知識回答、圖像生成、邏輯推理等方面表現(xiàn)出遠超預期的效果,吸引了大量用戶與市場關注。
以生產力視角看,AIGC具備多方面優(yōu)勢,第一是大幅度節(jié)省人力和時間成本,很多東西可以秒級生成;第二是比較大幅度改善內容質量,經過訓練后輸出的內容質量超過95%以上人力的智能。
國內推出的過百個大模型以基礎大模型為主,多停留在對話、圖像生成用途,AIGC的第三點優(yōu)勢尚不能體現(xiàn),即如同曾經云計算帶來的數(shù)字化變革一般,將有助于眾多產業(yè)、行業(yè)的數(shù)字化,將為數(shù)字經濟建設發(fā)揮重要作用。
因此,行業(yè)認為當下的AIGC火爆只是剛剛開始,后續(xù)還將迎來更多爆發(fā)。

圖源《中國AIGC產業(yè)全景報告暨AIGC 50》
《中國AIGC產業(yè)全景報告暨AIGC 50》顯示,預計2023年我國市場規(guī)模可達170億人民幣,AIGC企業(yè)在業(yè)務場景變現(xiàn)還處于探索驗證時期。而后隨著產業(yè)加速增長,商業(yè)化落地逐漸深入、產業(yè)生態(tài)逐步完善,分別來到應用蓬勃期(2025-2027)和整體加速期(2028-2030),2030年市場規(guī)模將超萬億人民幣,產業(yè)鏈、價值鏈和業(yè)務鏈完全整合在一起。
在AIGC產品百花齊放的同時,變現(xiàn)是大模型廠商們接下來必須要考慮的問題。
目前大模型的營收方式主要有四種:MaaS、按產出內容量付費、軟件訂閱付費、模型定制開發(fā)費。ChatGPT主要依賴軟件訂閱付費和MaaS收入,其母公司OpenAI的CEO近日透露公司年化營收達13億美元(折合人民幣近95億)。
國內廠商尚在進行商業(yè)模式的探索,是參考ChatGPT還是綁定其他業(yè)務賺錢,大模型的營收變現(xiàn)有待進一步明確。有AI芯片企業(yè)負責人表示,今年下半年開始,商業(yè)模式如何賺錢將成為大模型廠商的必答題。
他認為,2024年將是大模型商業(yè)化的元年,也是關鍵一年。
智算需求只增不減明年迎海量部署消耗
看得見的AIGC蓬勃發(fā)展背后,是看不見的智能算力在支撐。
大模型爆發(fā)掀起了新一輪AI熱潮,也改變了智能算力需求與格局。
眾所周知,AI要經過訓練與推理兩個步驟,訓練即模型產生的過程,推理即模型部署的過程。大模型從業(yè)者向筆者表示,大模型出來后則分成了三個階段:首先預訓練,然后微調——把大模型垂直化,最后是推理部署。
“現(xiàn)在預訓練的過程中,大家都是堆卡、堆集群,動不動燒幾千萬上億訓練大模型。微調階段就已經進入了行業(yè)化,做推理的時候已經進入了商業(yè)部署,這兩個階段怎樣真正賺錢而不是像預訓練那樣燒錢就變得非常重要。行業(yè)化和商業(yè)化的關鍵在于性價比,如何能夠真正大規(guī)模部署AI應用,能不能通過底部支撐的算力系統(tǒng)集成部署打造極致性價比?”
產業(yè)專家指出,總體來看,大模型所需的智能算力需求將只增不減。今年通用大模型最火,單模型算力需求基本以千P為單位。未來大模型必然要走專業(yè)化、行業(yè)化的發(fā)展方向,形成眾多產業(yè)大模型,其算力單個需求可能只有幾百P,但產業(yè)場景越來越多,總量需求將比現(xiàn)有通用大模型的智能算力總需求更大。
智能算力從哪來?智算中心
根據(jù)工信部等六部門新政策中的定義,使用大規(guī)模異構算力資源,包括通用算力(CPU)和智能算力(GPU、FPGA、ASIC等),主要為人工智能應用——如人工智能深度學習模型開發(fā)、模型訓練和模型推理等場景,提供所需算力、數(shù)據(jù)和算法的智算中心,在推進人工智能和數(shù)字經濟發(fā)展中發(fā)揮著重要作用。

成都智算中心
大模型需求驅動下,智算中心項目如雨后春筍般涌現(xiàn)。中國信通院云大所副所長栗蔚指出,預計2023年將有超過30個城市在建或者籌建智算的中心。而據(jù)中國IDC圈不完全統(tǒng)計,僅在2023年7月到9月,以“智算中心”為名字的項目規(guī)劃在建及建成的就超過36個,預計總投資規(guī)模超過460億。
有算力領域企業(yè)表示,當前一些智算中心建設偏盲目,邏輯是“先建算力,再找需求”。
他判斷未來會趨向謹慎,尤其是to G(政府主導)的智算中心建設。2024年國內智算中心建設,一定是先找當?shù)氐乃懔ο{,再根據(jù)算力需求再建相關算力匹配。
“2024年大模型會大規(guī)模部署、賦能,這一過程中對于算力的消耗是海量的。”
從液冷應用到多云部署大模型改變數(shù)據(jù)中心
智能化時代正在開啟,AI將成為各行各業(yè)的新型生產力,也對算力提出更高的要求。
今天,從大模型服務到底層智能算力再到算力基礎設施,都正在面向AI時代進行全面的技術升級和創(chuàng)新。
算力市場分為三個層級,在大模型位于的最上層,面臨系統(tǒng)的適配中心、業(yè)務遷移耗時、定制開發(fā)的投入等問題。中層的算力平臺需要滿足支持CPU+GPU的調用、硬件接口的統(tǒng)一、互聯(lián)協(xié)議的標準、軟件生態(tài)的兼容性等要求。在最下層,即智算中心這一基礎設施層,主要解決大算力背景下的高電能散熱問題。
此前數(shù)據(jù)中心以普通CPU服務器為主,AI大模型訓練和推理運算使用GPU服務器,單臺設備的額定功率最高達12千瓦以上,遠超CPU功率水平。當前數(shù)據(jù)中心單機柜功率以6kw、8kw為主,4KW亦不少見,未來智算中心單機柜功率可能十幾千瓦,幾十千瓦,單體智算中心可能上百兆瓦。
高功耗帶來高熱量,原有風冷很難滿足GPU散熱需求,液冷成為更好的解決方案。除散熱效率更高外,占地面積低、綠色節(jié)能也是液冷的優(yōu)勢。今年以來,液冷在數(shù)據(jù)中心的應用部署量已經顯著上升。
當單個計算中心的算力無法滿足大模型的巨大算力需求,需要將多個算力中心連接起來,共同為大模型提供訓練的相關能力,同時巨大算力消耗又帶來高能源消耗。
因此,單機柜高功率、高效散熱、低PUE、多云間的互聯(lián)、滿足云架構的部署,都是大模型發(fā)展對智能算力與智算中心提出諸多新要求。
此外,大模型訓練與推理場景的不同,生物醫(yī)療、圖像識別等不同應用對算力精度的不同需求,也影響著智算的布局與算力配置。
更多內容,將在IDCC2023上帶來分享與討論!
第十八屆中國IDC產業(yè)年度盛典(IDCC2023)將于2023年12月12-14日在北京國家會議中心隆重舉行,大會主題為“算力進化數(shù)字開物”,聚焦算力產業(yè)熱點話題,匯聚業(yè)內精英人士,共同探討數(shù)字經濟的發(fā)展方向和未來趨勢。歡迎報名,現(xiàn)場參與!












