每日(ri)經濟新聞 2025-11-17 21:19:03
每經記者|趙景致 每經編輯|張益銘
人(ren)工智(zhi)能的采用率正在上升,但信任仍是一個(ge)關鍵挑戰。
全球四大會計師事務所之(zhi)一的(de)畢馬(ma)威(KPMG)發布的(de)最新數(shu)據顯示(shi),相(xiang)較于2022年ChatGPT發布前,如今AI(人(ren)工智能)普及(ji)率已經(jing)顯著提升,但憂(you)慮(lv)情緒也隨之(zhi)上升,全球僅46%受(shou)訪者愿意信任AI系(xi)統。
許多先進(jin)的人工(gong)智能模型(xing)被視為“黑箱”,即(ji)便(bian)是開(kai)發(fa)者也難以(yi)完全理(li)解(jie)其決策邏輯。面對這種透明度缺失的情況,人們應(ying)如何建立對人工(gong)智能系統的信任?近日,《每日經濟新(xin)聞》記者(以(yi)下簡稱NBD)專訪了(le)香港金融科技周籌辦商Finoverse首席執(zhi)行官Anthony Sar。
NBD:許多先(xian)進的人(ren)工智能模型被視為(wei)“黑箱”,面對這種(zhong)透(tou)明度缺失的情況,人(ren)們應如何建立對人(ren)工智能系統的信任(ren)?
Anthony Sar:大型語(yu)言(yan)模型的透明度仍未完(wan)全實現,即便對其創造者(zhe)而言(yan)亦是如(ru)此。如(ru)今,人工智能不僅能預測文字,還能理解概(gai)念——這既(ji)賦予了(le)它(ta)強大的能力(li),也帶(dai)來了(le)相應風(feng)險。
建立信任(ren)需要強有力的(de)(de)人(ren)(ren)類監督、透明的(de)(de)數據使用以(yi)及企業級的(de)(de)測試。負責任(ren)的(de)(de)人(ren)(ren)工(gong)智能是能夠部署在安全地(di)提升人(ren)(ren)類成果的(de)(de)領域,而非取(qu)代人(ren)(ren)類的(de)(de)判斷。
NBD:當人工智能系統出現嚴重錯(cuo)誤(例如自動駕駛(shi)汽(qi)車引發(fa)事故(gu)、醫療人工智能給出誤診)時,該(gai)由誰(shui)為這一(yi)錯(cuo)誤負(fu)責(ze)?
Anthony Sar:人(ren)(ren)工智能(neng)(neng)出現嚴(yan)重錯誤,其(qi)責(ze)任應由多方共同(tong)承擔。就像交(jiao)通安全依賴于司機(ji)、行人(ren)(ren)及監管機(ji)構共同(tong)遵守(shou)規則(ze)一樣,負責(ze)任的人(ren)(ren)工智能(neng)(neng)需要(yao)開發者、部(bu)署(shu)者和用(yong)戶各自承擔明確(que)的角色(se)。
我們已經擁有監管復雜系統的框架,通過標準制定、測(ce)試和(he)執行,這些(xie)框架同樣(yang)可以應用于人工(gong)智能領域。
NBD:隨著人(ren)工智能(neng)(neng)能(neng)(neng)力的(de)(de)(de)快速提升,人(ren)們(men)對其(qi)被惡意(yi)使用的(de)(de)(de)擔憂(you)日益加劇(ju),甚(shen)至(zhi)有(you)人(ren)擔心人(ren)工智能(neng)(neng)可(ke)(ke)能(neng)(neng)變(bian)得(de)無法控制(zhi),超出人(ren)類的(de)(de)(de)監督范圍。您認為(wei),這些(xie)是(shi)迫在眉睫的(de)(de)(de)現(xian)實(shi)威脅(xie),還(huan)是(shi)遙(yao)遠的(de)(de)(de)科幻場景?人(ren)類社會應如何為(wei)人(ren)工智能(neng)(neng)的(de)(de)(de)發展和使用劃定“紅(hong)線(xian)”,以(yi)應對其(qi)可(ke)(ke)能(neng)(neng)帶(dai)來(lai)的(de)(de)(de)“災難性”或“生存性”風(feng)險?
Anthony Sar:與任(ren)何強大(da)的(de)技術一樣(yang),人(ren)工智能(neng)既可(ke)用于造福人(ren)類,也可(ke)能(neng)被用于危害他人(ren),就像核能(neng)一樣(yang)。人(ren)工智能(neng)可(ke)能(neng)在未(wei)來20年內超越人(ren)類能(neng)力,因(yin)此治理至關重(zhong)要,必須確保(bao)技術發展的(de)方向始終服務于人(ren)類福祉(zhi)。
我們認為,靈活的(de)、基于風險的(de)治理模(mo)式(shi)是關鍵。需要注意(yi)的(de)是,并(bing)非所有應(ying)用場景(jing)都存在(zai)相同程度的(de)風險,在(zai)金(jin)融、醫療或公共安全等敏感領域,監管必須像對(dui)持證(zheng)(zheng)職業那(nei)樣嚴格(ge),確(que)(que)保每一項(xiang)決(jue)策都經過測試(shi)、驗證(zheng)(zheng)并(bing)明確(que)(que)問責(ze)。但在(zai)創意(yi)類或低風險應(ying)用場景(jing)中,應(ying)允許人工智能在(zai)清晰的(de)倫理準(zhun)則下(xia)更自由(you)地發展。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞(wen)》報社授權(quan),嚴禁轉載或鏡像,違者必(bi)究(jiu)。
讀(du)者熱線:4008890008
特(te)別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您(nin)不希(xi)望作(zuo)品出現在本(ben)站,可聯系我們要求(qiu)撤下您(nin)的作(zuo)品。
歡迎關注每(mei)日經濟新聞APP