暖暖视频在线观看日本/国产成人精品a视频一区/精人妻无码一区二区三区/成在线人免费视频/17c一起草

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正(zheng)文

“AI教父”背書,13位OpenAI、谷歌現任及前任員工聯名警告:AI失控或導致人類滅絕

每日經濟新聞 2024-06-06 18:10:11

每(mei)(mei)經(jing)(jing)編(bian)輯(ji)|黃(huang)勝(sheng)    每(mei)(mei)經(jing)(jing)實習編(bian)輯(ji)|宋欣(xin)悅     

當(dang)地時(shi)間4日,13位來自OpenAI和Google的(de)現任及(ji)前(qian)任員(yuan)工(gong)聯(lian)合發布了一封公開信(xin),引發廣泛(fan)關注。這(zhe)些員(yuan)工(gong)在信(xin)中(zhong)表達(da)了對人工(gong)智能(neng)技術潛在風險的(de)嚴重(zhong)擔憂(you),并呼(hu)吁相關公司采取更加透明(ming)和負(fu)責任的(de)措施來應對這(zhe)些風險。

13位OpenAI、谷歌現任及前任員工發聯名信

這封公(gong)開(kai)信由多(duo)位知名(ming)人(ren)士聯名(ming)背書,包(bao)括(kuo)被譽(yu)為(wei)“人(ren)工智能教父”的杰弗里•辛(xin)頓(Geoffrey Hinton)、因開(kai)創(chuang)性AI研究獲(huo)得圖靈獎(jiang)的約書亞•本吉奧(ao)(Yoshua Bengio)以及AI安全(quan)領域的學者斯圖爾特•羅素(Stuart Russell)。


圖片來源:Right To Warn AI

信中指出,盡管人工智能技術可能會給人類帶來巨大益處,但其帶來的風險同樣不容忽視。這些風險包括加劇社會不平等、操縱和虛假信息傳播,以及自主AI系統失控可能導致的人類滅絕。信(xin)中(zhong)強調,這些風險不僅得到了人工(gong)智能(neng)公司本身(shen)的(de)(de)確(que)認,也得到了世界各國政府和其他AI專家的(de)(de)認可。

公開信簽署者們表示,他們希望在科學界、政策制定者和公眾的指導下,能夠充分緩解這些風險。然而,他們擔心,人工智能公司由于強烈的經濟動機,可能會避免接受有效的監督。他們認(ren)為,僅靠現(xian)有(you)的公司治理(li)結構不(bu)足以解(jie)決這一問題。

信中還提到,人工智能公司掌握著大量關于其系統能力和局限性、保護措施的充分性以及各種風險水平的非公開信息。然而,這些公(gong)司目(mu)前對與(yu)政府分(fen)享信息的(de)義務很弱,且完全沒有義務與(yu)公(gong)眾分(fen)享。簽(qian)署者們認(ren)為,不能完全依賴這些公(gong)司自愿分(fen)享信息。

信中提到,由于嚴格的保密協議,員工們在表達對AI風險的擔憂時,面臨著種種限制。而目前對于舉報人的保護措施尚存在不足,一些員工擔心因提出批評而遭受報復。

聯名(ming)信(xin)呼(hu)吁人工(gong)智能公(gong)司(si)承(cheng)諾員(yuan)工(gong)對公(gong)司(si)提出(chu)風險(xian)相關(guan)的批(pi)評(ping)(ping)時,不對其進行(xing)打擊報復,建立匿名(ming)舉報機制(zhi),支持開(kai)放批(pi)評(ping)(ping)的文化,并保護員(yuan)工(gong)公(gong)開(kai)分享風險(xian)相關(guan)信(xin)息的權(quan)利。


圖片來源:X

OpenAI前員工丹尼爾•科泰(tai)洛 (Daniel Kokotajlo)是(shi)此次聯名(ming)信公開(kai)署(shu)名(ming)人員中的一位。他在(zai)社交平臺上連(lian)發(fa)15條消息表示(shi):“我們中一些最(zui)近從OpenAI辭職的人聚(ju)集在(zai)一起,要求實驗室對透明度作出更(geng)廣(guang)泛的承諾。”

丹尼爾提到,他今年四月辭職,是因為對該公司在構建通用人工智能方面是否會采取負責任的行為失去了信心。他指出,盡管他希望公司在AI功能越來越強大的同時,能在安全研究方面投入更多資金,但OpenAI并未做出相應調整,導致多名員工相繼辭職(zhi)。

他強調,OpenAI等實驗室構建的系統有能力給人類社會帶來巨大的好處,但如果不謹慎處理,長期來看,可能是災難性的。他還提到,當前AI技術幾乎未收監管,主要是公司在進行自我監管,而這種方式存在巨大的風險。

丹尼爾透露(lu),離(li)職時他被要求簽(qian)署一份(fen)“封口協議(yi)”,其中包(bao)含一項不貶(bian)損(sun)條(tiao)款,禁止(zhi)他發表(biao)任何批評公司的(de)話,否則將(jiang)失(shi)去已歸(gui)屬的(de)股權(quan)。然而(er),他在深(shen)思(si)熟(shu)慮后,依舊決定放棄簽(qian)署協議(yi)。


圖片來源:Dwarkesh Podcast

此外,6月4日,OpenAI前超級對(dui)齊部門成員利奧波(bo)德(de)•阿(a)申布倫納(Leopold Aschenbrenner)也在播客節目Dwarkesh Podcast中透露他被開除(chu)的真(zhen)實原因:他給幾位董事會成員分享了一份OpenAI安全備忘錄(lu),結果導致OpenAI管理層不滿。

利奧波德在社交平臺表示,到2027年實現AGI是極其有可能的,需要更嚴格的監管和更透明的機制,確保人工智能的安全發展。

圖片來源:X

OpenAI安全主管辭職、“超級對齊團隊”解散

此前(qian),OpenAI原首席科學家伊利亞•蘇茨克(ke)維(Ilya Sutskever)和前(qian)安全主管、超級對齊團隊負(fu)責人楊•萊克(ke)(Jan Leike)相繼離職(zhi)。

萊克在離職后,公開批評了OpenAI的(de)管理層,指責其追(zhui)求華(hua)而不實(shi)的(de)產(chan)品(pin),忽視了AGI(通用人(ren)工(gong)智能(neng))的(de)安(an)全問題。他稱OpenAI領導層關于(yu)公司核心優先事項的(de)看法一直(zhi)不合(he),超(chao)級對齊團隊過去(qu)幾個(ge)月一直(zhi)在逆風航(hang)行(xing),在提升模型安(an)全性的(de)道路上(shang)受到公司內部的(de)重(zhong)重(zhong)阻(zu)礙(ai),“(OpenAI)安(an)全文化和安(an)全流程已經讓(rang)位給閃亮的(de)產(chan)品(pin)”。

圖片來源:X

每日經濟新聞綜合公開消息

封(feng)面圖片來源:每(mei)日(ri)經濟新聞 資料圖

如需轉載請與《每日經濟新聞》報社聯系。
未(wei)經《每(mei)日(ri)經濟新聞》報社授(shou)權(quan),嚴禁轉載或鏡像,違(wei)者必究。

讀者熱線:4008890008

特(te)別提醒:如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿酬。如您(nin)不希望作(zuo)品出現在(zai)本(ben)站,可聯系我們(men)要求(qiu)撤下您(nin)的(de)作(zuo)品。

Ai OpenAI 谷歌

歡迎(ying)關注每日(ri)經濟(ji)新(xin)聞APP

每經經濟新聞官方APP

0

0