每日經濟新聞 2025-01-01 22:34:30
每經記(ji)者|宋(song)欣悅 每經編輯|高(gao) 涵
近日,“推遲”“質疑”“未達預期”這類詞語頻(pin)繁出現在人工(gong)智(zhi)能(AI)行業(ye)的(de)討論和報道(dao)中。被眾人期待“炸場(chang)”的(de)OpenAI連續12天的(de)AI發布會(hui)細細品來也少了(le)些“革命性”的(de)味道(dao),更像是在已(yi)有成果上(shang)的(de)修(xiu)修(xiu)補(bu)(bu)補(bu)(bu)。
此前,OpenAI的(de)(de)聯合創始人伊爾亞(ya)·蘇茨克維就(jiu)曾在多個場合提(ti)到,AI的(de)(de)進步并不是線性的(de)(de),未來幾年內(nei),盡管有大量(liang)資(zi)金和研究投入(ru),技術突破的(de)(de)速度可能會(hui)有所放緩。
AI發(fa)展(zhan)速度真的在放(fang)緩(huan)嗎?AI發(fa)展(zhan)面臨著哪些挑戰?我們距離(li)通用人(ren)工智能(AGI)還有(you)多(duo)遠?針對這些熱點(dian)問(wen)題,《每(mei)日經(jing)濟新聞(wen)》記(ji)者(以下簡稱(cheng)NBD)專訪了(le)復(fu)旦(dan)大學(xue)計算機學(xue)院(yuan)副(fu)教授、博士生導師(shi)鄭驍慶。
鄭(zheng)驍慶認(ren)為,從速(su)度來講(jiang),AI發展并沒有(you)放緩(huan),但目前AI發展面臨(lin)著三大核(he)心挑戰(zhan):AI“幻覺”現象、數(shu)據隱私、算力(li)和能(neng)源效率。在(zai)他(ta)看來,當前的(de)AI技(ji)術(shu)依然處于“高級(ji)別(bie)模(mo)仿(fang)”的(de)階(jie)段(duan),離真正的(de)AGI還有(you)一段(duan)距離。“AGI不(bu)僅(jin)需要(yao)在(zai)認(ren)知(zhi)能(neng)力(li)、學習能(neng)力(li)等(deng)方面超(chao)越(yue)現有(you)技(ji)術(shu),還需在(zai)情(qing)感理(li)解和自主(zhu)決策(ce)等(deng)領(ling)域有(you)所突(tu)破。”
AI發展并未減速,但仍面臨三大挑戰
NBD:在(zai)您(nin)看(kan)來(lai),近期AI的(de)發展速(su)度相比(bi)過(guo)去兩年,有怎樣的(de)變化?
鄭(zheng)驍慶:我(wo)認為,人工(gong)智能的發展速度并沒(mei)有放緩。
新一輪生(sheng)成(cheng)式人(ren)工智能的(de)標志性工作,實(shi)際上就是(shi)OpenAI在(zai)2022年(nian)底推出的(de)ChatGPT。這樣一個突(tu)破(po)性的(de)事件,距今僅有兩年(nian)左右的(de)時間(jian)。在(zai)這段時間(jian)里,ChatGPT的(de)成(cheng)功使得整(zheng)個學術(shu)界和產學界投入了大量的(de)人(ren)力和物力來推動生(sheng)成(cheng)式人(ren)工智能的(de)發展。
不(bu)能(neng)說當前(qian)人工智能(neng)技術的(de)發(fa)展變(bian)慢了,實(shi)際上(shang),它仍在(zai)加速前(qian)進(jin)。當然,在(zai)發(fa)展的(de)過程中(zhong),我們(men)不(bu)可避免地會遇到一些問題(ti)和新的(de)挑(tiao)戰,這(zhe)些都是目前(qian)確實(shi)存(cun)在(zai)的(de)。
NBD:目前人工智能面臨哪些重大挑(tiao)戰?
鄭驍(xiao)慶:因為(wei)我的研(yan)究工作(zuo)重(zhong)要集中在自然語言(yan)處理和機(ji)器(qi)學習(xi)方面,所以我從這個領域(yu)來談。
首先,當前大型語言模型面(mian)臨的(de)一個主(zhu)要問(wen)題是“幻覺(jue)”現象,即模型可能(neng)會生(sheng)成(cheng)看似正確但實際上錯誤的(de)信息。因為許多用戶并(bing)不具(ju)備鑒別信息真偽(wei)的(de)能(neng)力,所以很容(rong)易被這種(zhong)“幻覺(jue)”影(ying)響。特別是在醫學、法律、金融等高風險(xian)應用領域中,存(cun)在一定風險(xian)。
其(qi)次,大模型高度依賴大數(shu)據。實(shi)際(ji)上,包括(kuo)OpenAI在(zai)內的(de)AI公司,在(zai)訓(xun)練模型時(shi),也并未透露其(qi)使用了哪些數(shu)據。因為這些數(shu)據多多少少會涉及(ji)版權(quan)或個人(ren)隱(yin)私。這種問題不僅存在(zai)于模型的(de)構建和訓(xun)練過(guo)程(cheng)中,在(zai)用戶在(zai)使用大模型時(shi),也可能泄露個人(ren)信息。因此(ci),數(shu)據的(de)隱(yin)私問題是(shi)另一個重大挑戰。
最后,AI大模型的(de)(de)算力消耗(hao)巨(ju)大,資(zi)源(yuan)成本高昂。如何降(jiang)低使用(yong)門檻,讓更(geng)多(duo)用(yong)戶特別是中小企業能(neng)夠(gou)負擔得起人(ren)工智能(neng)技術,是我們需(xu)要思考(kao)的(de)(de)問題。在(zai)巨(ju)大的(de)(de)計算和能(neng)源(yuan)消耗(hao)情況(kuang)下(xia),如何實現更(geng)高效(xiao)、更(geng)節(jie)能(neng)的(de)(de)AI系統(tong),可能(neng)成為(wei)未來的(de)(de)發(fa)展方向。
數據最小化:只取所需,不要貪多
NBD:您認為(wei)有哪些關鍵技術(shu)可能會去解決或者緩解這些挑戰呢?
鄭驍慶:要緩(huan)解“幻(huan)覺(jue)”問題(ti),一種策(ce)略(lve)是“對(dui)齊”。目前,較為成熟的技術手段是利(li)用強(qiang)化學習來(lai)實現與(yu)人(ren)(ren)類(lei)偏(pian)好的對(dui)齊。在對(dui)齊人(ren)(ren)類(lei)偏(pian)好的過程中,一個核心標(biao)準是“誠(cheng)實性(xing)”,即(ji)模型必須提供真(zhen)實信息,而非胡編亂造。
另外,“檢索(suo)增(zeng)強生(sheng)成(cheng)”(RAG)也是(shi)一項關(guan)鍵技術。在提問時先提供相關(guan)的(de)(de)背景資(zi)料,模型(xing)會(hui)通(tong)過(guo)檢索(suo)這些資(zi)料來輔助生(sheng)成(cheng)答案,這樣可以在一定程(cheng)度上提高(gao)生(sheng)成(cheng)答案的(de)(de)準確性和可信度,緩解單純(chun)依(yi)賴模型(xing)內部知識庫可能產(chan)生(sheng)的(de)(de)“幻覺”問題(ti)。
還有一種(zhong)技術是(shi)答(da)案(an)生(sheng)成(cheng)的(de)后續(xu)驗(yan)證。模(mo)型(xing)生(sheng)成(cheng)答(da)案(an)后,我們(men)可(ke)以利用其他模(mo)型(xing)對答(da)案(an)中的(de)關(guan)鍵觀點和要素進行驗(yan)證,以確(que)保正確(que)性。
對于數據(ju)隱私問題,高質量的(de)數據(ju)是高質量應(ying)用的(de)基礎,我(wo)認為企(qi)業需要(yao)找到創(chuang)新與數據(ju)隱私之間的(de)平衡點。首(shou)先,企(qi)業需要(yao)遵循數據(ju)最小化原(yuan)則(ze),只收(shou)集(ji)和(he)使(shi)用與目標任務(wu)直接(jie)相(xiang)關的(de)最少(shao)量的(de)數據(ju),只取(qu)所(suo)需,而不要(yao)貪多。
其(qi)次,企業(ye)一定要做好數據(ju)的(de)加(jia)密和脫敏(min)處理。尤其(qi)是在(zai)AI應用(yong)中,模型的(de)訓練數據(ju)如果沒有保護好,攻擊(ji)者可能通過模型推(tui)測出(chu)隱(yin)(yin)私信息(xi),進(jin)而對企業(ye)和用(yong)戶帶來巨大的(de)安全隱(yin)(yin)患。
我們還可以考慮(lv)使用新(xin)技術來解決這個問題,比如聯邦(bang)學習(xi),它(ta)允許多個數(shu)(shu)據擁有者各自貢獻出模型(xing)所(suo)需的(de)訓(xun)練(lian)數(shu)(shu)據,在數(shu)(shu)據聯邦(bang)的(de)情(qing)況下完成模型(xing)的(de)訓(xun)練(lian),而不(bu)會泄露數(shu)(shu)據擁有者的(de)數(shu)(shu)據。
AI處于“高級別模仿”階段 不具備“小樣本學習”能力
NBD:近日,OpenAI首席(xi)執行官薩姆·阿(a)爾特(te)曼在接受(shou)媒(mei)體(ti)采訪時表示,預計通用人(ren)工智(zhi)能(AGI)將在2025年到來。在您看來,我們(men)離AGI近了嗎?
鄭驍慶(qing):阿爾特曼作(zuo)為(wei)OpenAI的首席執行官,從商業的角(jiao)度來說,他對于(yu)AGI的實現可能會比較樂觀。但對于(yu)我們研究者來講,我持一定(ding)的保留意見。
當前的(de)(de)(de)(de)AI技術,實(shi)質上仍是(shi)(shi)一種高(gao)級(ji)別的(de)(de)(de)(de)模仿,與人(ren)(ren)類(lei)的(de)(de)(de)(de)智(zhi)能(neng)(neng)完(wan)全不一樣(yang)。人(ren)(ren)類(lei)的(de)(de)(de)(de)智(zhi)能(neng)(neng),舉個例子,我們(men)從(cong)小就能(neng)(neng)流利(li)地(di)使用語(yu)言(yan),并產生語(yu)言(yan)的(de)(de)(de)(de)新表達。但(dan)實(shi)際上,我們(men)在成長過(guo)(guo)程中接觸到語(yu)言(yan)環(huan)境的(de)(de)(de)(de)數據(ju)量(liang)(liang),遠遠小于當前人(ren)(ren)工(gong)智(zhi)能(neng)(neng)模型接觸到的(de)(de)(de)(de)數據(ju)量(liang)(liang)。也就是(shi)(shi)說(shuo),人(ren)(ren)類(lei)大(da)腦(nao)具有(you)一種強(qiang)大(da)的(de)(de)(de)(de)小樣(yang)本學習能(neng)(neng)力(li),即(ji)僅憑少量(liang)(liang)樣(yang)本,就能(neng)(neng)泛化到未見(jian)過(guo)(guo)的(de)(de)(de)(de)情境,而(er)這是(shi)(shi)目前模型無法做到的(de)(de)(de)(de)。
目前,關于AGI還存在一個爭議:AGI是要做仿(fang)真(zhen)(按(an)照人腦(nao)(nao)思(si)路來(lai)做),還是按(an)照實(shi)用(yong)主(zhu)(zhu)(zhu)義的(de)思(si)路來(lai)做?具(ju)體而言,仿(fang)真(zhen)路徑主(zhu)(zhu)(zhu)張在深入理解和模(mo)擬人腦(nao)(nao)機制的(de)基(ji)礎上構建人工智能系(xi)統(tong);而實(shi)用(yong)主(zhu)(zhu)(zhu)義路徑則更加注(zhu)重(zhong)結果,認為只(zhi)要人工智能系(xi)統(tong)的(de)輸出效果與(yu)人類相當,就可以(yi)認為其具(ju)備智能。
現在(zai)(zai)的(de)(de)發展主要(yao)是在(zai)(zai)走實用主義(yi)的(de)(de)道路(lu),而(er)這條發展路(lu)徑面(mian)(mian)臨的(de)(de)最大的(de)(de)問題在(zai)(zai)于(yu),盡(jin)管AI在(zai)(zai)某些單一(yi)(yi)(yi)任(ren)(ren)務上(shang)可能(neng)表(biao)(biao)現非常優異(yi),但要(yao)從一(yi)(yi)(yi)個(ge)任(ren)(ren)務遷移到另(ling)一(yi)(yi)(yi)個(ge)任(ren)(ren)務,尤其(qi)是面(mian)(mian)對(dui)全新任(ren)(ren)務時,往(wang)(wang)往(wang)(wang)需要(yao)大量的(de)(de)新數(shu)據(ju)(ju)重新進行訓練。比(bi)如,我們教會AI文字表(biao)(biao)達(da),它(ta)的(de)(de)語音處(chu)理(li)能(neng)力可能(neng)就(jiu)不理(li)想;而(er)教會它(ta)語音,它(ta)的(de)(de)文字表(biao)(biao)達(da)能(neng)力又可能(neng)受(shou)到影響。因此(ci),在(zai)(zai)處(chu)理(li)涉及(ji)多種數(shu)據(ju)(ju)形式(如文本、圖(tu)像、音頻)的(de)(de)跨模態任(ren)(ren)務時,AI的(de)(de)表(biao)(biao)現仍(reng)然不夠出色。
人(ren)類智能(neng)完全(quan)不(bu)(bu)同,人(ren)類能(neng)夠(gou)依靠在其他任務(wu)中積(ji)累的(de)經驗,在新任務(wu)上同樣表現出(chu)(chu)色。即使(shi)面對未知的(de)任務(wu),人(ren)類也能(neng)規(gui)劃(hua)出(chu)(chu)探索和(he)研究的(de)路徑,從(cong)而順(shun)利完成(cheng)任務(wu)。因此(ci),我(wo)認為通(tong)(tong)用(yong)人(ren)工智能(neng)必(bi)須具備通(tong)(tong)用(yong)性和(he)遷移性。這種通(tong)(tong)用(yong)性遷移性意(yi)味(wei)著,一旦AI在某(mou)個任務(wu)上學(xue)會(hui)某(mou)項(xiang)技能(neng)或知識(shi),它(ta)應(ying)該能(neng)夠(gou)將其遷移到各(ge)種不(bu)(bu)同類型的(de)任務(wu)上。
另(ling)外一(yi)個(ge)值得探討(tao)的概(gai)念是(shi),元學(xue)(xue)(xue)(xue)習(xi)(Meta Learning)。之所(suo)以(yi)提及元學(xue)(xue)(xue)(xue)習(xi),是(shi)因為當(dang)前AI,包括ChatGPT在(zai)內,存在(zai)一(yi)個(ge)顯(xian)著的問題:推理能力(li)不足。元學(xue)(xue)(xue)(xue)習(xi)是(shi)一(yi)種更高層次的學(xue)(xue)(xue)(xue)習(xi)方法(fa),它(ta)關注的是(shi)“學(xue)(xue)(xue)(xue)會(hui)如(ru)何學(xue)(xue)(xue)(xue)習(xi)”(learning to learn),而不僅(jin)僅(jin)是(shi)學(xue)(xue)(xue)(xue)習(xi)什么。
如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新(xin)聞》報社授權,嚴禁轉載或鏡(jing)像,違者必(bi)究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取(qu)稿酬(chou)。如您不希望作(zuo)品(pin)出現(xian)在本站,可聯系我們要求撤下(xia)您的(de)作(zuo)品(pin)。
歡迎關注(zhu)每(mei)日經濟新聞APP