每日經濟新聞(wen) 2023-04-19 21:57:42
◎服(fu)務(wu)于大模型(xing)廠(chang)商,將是未(wei)來火山引(yin)擎的重(zhong)要業務(wu)之一。火山引(yin)擎目(mu)前在通(tong)過減少資源(yuan)損耗提升現有資源(yuan)效率。比起(qi)通(tong)用(yong)大模型(xing),它(ta)更聚焦于垂直(zhi)領域(yu)中參與大模型(xing)廠(chang)商的業務(wu)需(xu)求。
每(mei)(mei)經(jing)記者|王紫薇 每(mei)(mei)經(jing)編(bian)輯|劉雪梅
眼下AI大模型技術應用(yong)吹起來(lai)的(de)風(feng)口(kou),國(guo)內云(yun)市場的(de)“后來(lai)者”火山引擎不(bu)想錯(cuo)過。
4月(yue)18日,火山引擎(qing)在“原(yuan)動(dong)力大會”上發布(bu)了自(zi)研DPU等系列云產品,并推出新版機器學習平臺(tai)。
基于火山引擎(qing)(qing)的自身判斷(duan)——多云(yun)多模(mo)(mo)(mo)型架構將成為(wei)主流,這個學習平臺與眼下chatGPT引發的“大模(mo)(mo)(mo)型熱”頗為(wei)契合(he),而火山引擎(qing)(qing)恰能提升大模(mo)(mo)(mo)型訓(xun)練的穩定性與訓(xun)練速度。
這些動作不僅(jin)是(shi)火(huo)山引擎自身敏捷迭代的一(yi)部分,也是(shi)面(mian)向大模(mo)型(xing)風口(kou),火(huo)山引擎搶占先機之(zhi)舉。火(huo)山引擎總裁(cai)譚待接(jie)受(shou)《每日經濟(ji)新聞(wen)》記者采訪時(shi)表示,服務于大模(mo)型(xing)廠(chang)商(shang),將是(shi)未來(lai)火(huo)山引擎的重要業(ye)務之(zhi)一(yi)。
AI大模型的(de)“命門”在(zai)(zai)于算力。譚(tan)待接受(shou)記者采訪時表示(shi),火(huo)山引擎目前的(de)芯片“夠用”,同時還(huan)在(zai)(zai)通(tong)過減(jian)少(shao)資(zi)源(yuan)損耗提升現有資(zi)源(yuan)效(xiao)率(lv)。
自研DPU是(shi)火山引擎“敏(min)捷迭(die)代”的(de)(de)一部分,也是(shi)提升資源效率的(de)(de)方式之一。

自研(yan)DPU是火(huo)山引(yin)擎“敏(min)捷迭代”的一部(bu)分 圖(tu)片(pian)來源:每經記者 王(wang)紫(zi)薇 攝
字(zi)節跳動副總裁楊震原接受《每日經濟(ji)新聞》記者采訪(fang)時表示,自研DPU讓火(huo)山引擎(qing)可(ke)以在不同事物、不同場景(jing)下選擇更(geng)優、更(geng)節省算力的技術設計方案(an)。簡而言之,DPU不產生算力,但可(ke)以給出算力分(fen)配的更(geng)優解。
此外,火(huo)山引擎還宣布(bu)與字節跳動國內業(ye)(ye)務并池,以便提(ti)升資(zi)源(yuan)的利(li)用(yong)。記者(zhe)了解到,火(huo)山引擎將把抖音(yin)等業(ye)(ye)務的空閑計算資(zi)源(yuan)調度給火(huo)山引擎客戶使用(yong),其中離(li)線(xian)(xian)業(ye)(ye)務資(zi)源(yuan)分鐘級調度10萬核CPU,在線(xian)(xian)業(ye)(ye)務資(zi)源(yuan)可潮汐復用(yong)。
火(huo)山引擎(qing)于2020年(nian)正式上線(xian),目前剛(gang)剛(gang)3歲。在升級為字(zi)節六大核心板塊(kuai)之一(yi)后(hou),火(huo)山引擎(qing)商業化步子(zi)走得很快(kuai),一(yi)年(nian)多時間(jian)內,就先后(hou)宣布進軍IaaS服務、發布全系列云產品、推出覆蓋金(jin)融等六大行(xing)業的云上增長(chang)方(fang)案。
此次,火(huo)山引擎迎(ying)頭(tou)趕上大(da)(da)模(mo)型(xing)(xing)風口,并宣布現階段主要為(wei)為(wei)大(da)(da)模(mo)型(xing)(xing)廠商提供服務,在大(da)(da)模(mo)型(xing)(xing)成熟后將深度合作,提供AI應用(yong),其(qi)自身并不(bu)推出大(da)(da)模(mo)型(xing)(xing)產品。
To B領域,先手優勢巨大。此(ci)次大模型的爆發(fa)被(bei)看(kan)作云服務商的增長新機遇(yu)。火山引擎,能借此(ci)彎道(dao)超車(che)嗎?
敏(min)捷迭代(dai),數(shu)據驅動、體驗(yan)創新一直(zhi)是火山引擎強調的(de)“底盤三要素”。在這次會(hui)上,敏(min)捷迭代(dai)成了譚待強調的(de)重點(dian)。他認為,企業數(shu)字化革新的(de)浪(lang)潮(chao)隨著大模(mo)型面(mian)世(shi),已經從上云(yun)、用云(yun),到了云(yun)上創新時代(dai)。
譚(tan)待認為,用云(yun)不是最終目標(biao),在云(yun)上(shang)致力于更敏捷(jie)、更前沿的場景化創新(xin)才是敏捷(jie)迭代的果實。
總結來(lai)說,敏(min)捷迭代包括了(le)云IaaS、PaaS能力(li),特別是多云、分(fen)布式云,以及怎樣管理好在多云上的(de)負載。
首先,火山(shan)引擎選擇與字(zi)節(jie)國內業(ye)務大規模“并池(chi)”。
楊震原(yuan)在(zai)會后的(de)(de)(de)采訪中表示(shi),并池的(de)(de)(de)“池”,是計算(suan)池,包括(kuo)計算(suan)、存儲、服務器、容器這(zhe)樣(yang)(yang)的(de)(de)(de)單(dan)元;并池之后,意味著火山引(yin)擎與字節的(de)(de)(de)內外服務可以(yi)在(zai)共享(xiang)資源(yuan)池里(li)去調度,字節內部服務也上(shang)到云(yun)服務上(shang)面來。這(zhe)樣(yang)(yang)做的(de)(de)(de)好處是,可以(yi)提高(gao)整體資源(yuan)利用率(lv)。
“資(zi)源(yuan)(yuan)的(de)(de)混合分布能夠更(geng)好地降低云計算的(de)(de)成本。比如,抖音(yin)在火山引擎上使用資(zi)源(yuan)(yuan)調(diao)度有波峰和波谷,這(zhe)種資(zi)源(yuan)(yuan)就很適合科學計算的(de)(de)能力。”楊(yang)震原說。
目前(qian)那(nei)些迫切希望入局大模型的廠(chang)商(shang)們(men),最亟需的需求之一就是算(suan)力。算(suan)力的獲取(qu)可(ke)以向(xiang)云(yun)服務商(shang)購買(mai),也(ye)可(ke)以從高端芯片中獲取(qu),后一方(fang)式對廠(chang)商(shang)來說(shuo)參與成(cheng)本更(geng)高,而機器(qi)學習既復雜又貴——復雜在(zai)于硬件、系(xi)統、框架、平(ping)臺都必須要做對,而無論是硬件、數據、還(huan)是人力,都很貴。
因此,選擇與云服務(wu)商合作是目前的主流(liu)方式。
楊震(zhen)原在會上(shang)分享了抖音(yin)推薦系統(tong)的機器學(xue)習(xi)實踐:工程(cheng)師(shi)(shi)用15個(ge)(ge)月的樣本(ben)訓(xun)練(lian),某個(ge)(ge)模(mo)型(xing)5小(xiao)時就能(neng)完(wan)成訓(xun)練(lian),成本(ben)只(zhi)有5000元。火爆全(quan)網(wang)的抖音(yin)“AI繪畫”特效(xiao),從啟動(dong)到上(shang)線只(zhi)用了一周多時間(jian),模(mo)型(xing)由(you)一名算(suan)法工程(cheng)師(shi)(shi)完(wan)成訓(xun)練(lian)。
自研DPU
在(zai)敏捷(jie)迭代部分(fen),譚待還強調了全棧自(zi)研,并在(zai)會(hui)上發布(bu)的基于(yu)自(zi)研DPU的彈性計算實例、對象存儲升(sheng)級,云數據庫升(sheng)級,函數服務等產品(pin)。
譚待(dai)(dai)表(biao)示,大模型需要大算(suan)力(li),虛(xu)擬化(hua)會帶來(lai)(lai)資源損(sun)耗,規模越(yue)(yue)(yue)大就損(sun)耗越(yue)(yue)(yue)多(duo)。目前談及AI很多(duo)是(shi)代(dai)表(biao)的是(shi)GPU,而(er)不(bu)是(shi)CPU異(yi)構計(ji)算(suan)的負載。這部(bu)分的負載占比會越(yue)(yue)(yue)來(lai)(lai)越(yue)(yue)(yue)大。“以前可能(neng)GPU:CPU是(shi)1:10或1:9,未來(lai)(lai)這個占比會越(yue)(yue)(yue)來(lai)(lai)越(yue)(yue)(yue)高。對于(yu)火山引(yin)擎來(lai)(lai)說,這部(bu)分肯定是(shi)重點關(guan)注的方(fang)向(xiang)之一。”譚待(dai)(dai)說。
而DPU的(de)(de)作(zuo)用(yong)是(shi)(shi),把計算機網絡協議用(yong)專用(yong)芯片、專用(yong)組件卸載掉,這樣(yang)就能把CPU和GPU釋放出來(lai),放到更(geng)關鍵的(de)(de)業務中去。譚待(dai)說,火山引(yin)擎自研了DPU,“因為這是(shi)(shi)值(zhi)得優化(hua)的(de)(de)最大的(de)(de)問題。虛擬化(hua)占到成本的(de)(de)10%—20%。”
“對(dui)于云來(lai)說,這是持續(xu)降低成(cheng)本(ben)的一個非常重要(yao)的方式(shi),對(dui)于客(ke)戶來(lai)說,他也(ye)能享受到(dao)降低成(cheng)本(ben)帶(dai)來(lai)的好處。”譚待說。
譚待認為,在未來三年內(nei),大規模的算(suan)(suan)力中心將(jiang)形成‘CPU+GPU+DPU’的混合算(suan)(suan)力結構。其中,CPU負責(ze)通(tong)用計(ji)算(suan)(suan),GPU負責(ze)AI計(ji)算(suan)(suan),DPU負責(ze)資源卸載、加速和(he)隔離(li),提(ti)升資源效率(lv)。
除了敏捷(jie)迭代之外,在數據(ju)驅動(dong)、體驗創新部(bu)分,譚待表示,提升(sheng)數據(ju)消(xiao)費(fei)的一部(bu)分是構(gou)(gou)建數據(ju)應用(yong)能力,這其中(zhong)包(bao)含(han)AB測試、CDP、GMP等應用(yong);另一部(bu)分是構(gou)(gou)建數據(ju)平(ping)臺的閉環(huan),包(bao)括大數據(ju)的組(zu)件(jian)。
體(ti)(ti)驗(yan)(yan)創(chuang)新(xin)(xin)則是(shi)通過更好的(de)(de)互(hu)動技術打造(zao)視(shi)頻、游(you)戲的(de)(de)升級體(ti)(ti)驗(yan)(yan)。其中,更高清、更沉(chen)浸、更互(hu)動是(shi)消費者視(shi)頻體(ti)(ti)驗(yan)(yan)提升的(de)(de)三個關(guan)鍵方向。譚待表示,體(ti)(ti)驗(yan)(yan)創(chuang)新(xin)(xin)既要關(guan)注外(wai)部(bu)(bu)對用(yong)戶的(de)(de)創(chuang)新(xin)(xin),也要關(guan)注內(nei)(nei)部(bu)(bu)運營、內(nei)(nei)部(bu)(bu)員(yuan)工的(de)(de)體(ti)(ti)驗(yan)(yan),包括未來企業越來越多采用(yong)混合辦公模式之后,如何構(gou)建相應的(de)(de)IT基礎設施。
大(da)模型(xing)的(de)熱(re)度不減。IDC在《2022中國大(da)模型(xing)發展白(bai)皮書》中預測,2026年中國人工(gong)智(zhi)能軟件及應(ying)用市場規模將達到211億美元,未來(lai)各行各業都會被AI所推(tui)進(jin)。大(da)模型(xing)的(de)投資熱(re)度也因此(ci)不斷(duan)升溫,字節跳動、百度、阿里(li)巴巴、華為、商湯等企業都宣布了相關產品(pin)和投資。
從數字化變(bian)革,到(dao)智能(neng)化,云(yun)服務的賽道變(bian)寬,玩(wan)家也在“軍備(bei)競賽”。百度(du)“百度(du)人工智能(neng)體系”于2020年提(ti)出。今年3月27日(ri),百度(du)“文心一(yi)言(yan)”云(yun)服務上線;不久在阿(a)里(li)云(yun)峰會上,宣布阿(a)里(li)巴(ba)巴(ba)所有產品都將接入“通義千問”大模型。在此之前,阿(a)里(li)云(yun)已在與達摩院逐步(bu)融合(he)。
譚待認為,大模型將帶動云上AI算(suan)(suan)力(li)(li)激增,AI算(suan)(suan)力(li)(li)的(de)(de)工作負(fu)載與通用算(suan)(suan)力(li)(li)的(de)(de)差距會越(yue)來(lai)(lai)越(yue)小,這會為各家(jia)云廠商帶來(lai)(lai)新的(de)(de)機會,同時也會對數據(ju)中(zhong)心、軟硬件棧、PaaS平臺(tai)帶來(lai)(lai)新的(de)(de)挑戰。
從此次(ci)發布會來看,比起通用大(da)模(mo)型,火山引(yin)擎更聚焦(jiao)于垂直領域中參與(yu)大(da)模(mo)型廠商的業務(wu)需求。
比(bi)如在智能駕(jia)駛領域,火山(shan)引擎與智能駕(jia)駛服務商(shang)、造車新(xin)勢力、主(zhu)機(ji)廠合作,推動(dong)各方在公有云大算力中心進行更(geng)靈活、更(geng)大規模(mo)的智能駕(jia)駛訓練(lian);在生(sheng)物(wu)科技領域,火山(shan)引擎進行了生(sheng)信(xin)PaaS—BioOS探(tan)索,推動(dong)生(sheng)信(xin)科研創新(xin)的基(ji)礎設施(shi)統(tong)一(yi)(yi)、數據存儲統(tong)一(yi)(yi)、開發模(mo)式統(tong)一(yi)(yi),降低創新(xin)成本。
譚待告訴《每日經濟新聞》記者,“ChatGPT讓大(da)家關注到(dao)了大(da)語言模型,其(qi)實視覺、圖象、語音,包括自(zi)動(dong)駕駛等垂(chui)直領域(yu)序列,將(jiang)來也可以構(gou)建出circles模型。對火山引擎來說,這(些業(ye)務)肯(ken)定(ding)是(shi)將(jiang)來很重(zhong)要(yao)的不斷增長的負(fu)載來源,是(shi)火山引擎的重(zhong)要(yao)方向之一。”
CIC灼識咨(zi)詢經理陳一心向每(mei)經記者表示,使模(mo)型在應用中更加切中企(qi)業經營重點(dian),同時借此將(jiang)模(mo)型的(de)(de)規模(mo)與TCO合理化,提升(sheng)性價比(bi)、控(kong)制成本,進而普及大規模(mo)B端(duan)應用,這將(jiang)是未來的(de)(de)發(fa)展方向之(zhi)一。
當然,大模型(xing)的(de)發展機遇與(yu)挑戰并存。行業(ye)認為,大模型(xing)在發展過(guo)程中(zhong)仍存在多個關鍵問題,譚待對此表示,目前其發展還在初期(qi),并面臨數據(ju)安全、內容安全、隱(yin)私保(bao)護(hu)、版(ban)權保(bao)護(hu)等(deng)許多問題需要努力解決。
“大模型(xing)百花齊(qi)放,將深刻改變人與人、人與機器的協作方式,對內容生產、辦(ban)公協作、商業、教育(yu)、傳媒等(deng)不同領域(yu)產生影響。未(wei)來將是多(duo)云(yun)多(duo)模型(xing)的時(shi)代。”譚待說。
封面圖片來源:每(mei)經記(ji)者 王紫薇 攝
如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新聞》報社(she)授權,嚴(yan)禁轉載或鏡像(xiang),違者必(bi)究。
讀者熱(re)線(xian):4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿酬。如您不希望作(zuo)品(pin)出(chu)現在本站,可聯(lian)系我們要求撤下您的作(zuo)品(pin)。
歡(huan)迎關注(zhu)每(mei)日(ri)經濟新聞(wen)APP