2025-10-27 11:22:51
每(mei)經(jing)(jing)記者|趙雯(wen)琪(qi) 每(mei)經(jing)(jing)編(bian)輯(ji)|余婷(ting)婷(ting)
每經北京10月27日電(記者 趙雯琪)美團LongCat團隊今日發布并開源LongCat-Video視頻生成模型,以統一模型在文生、圖生視頻基礎任務上達到開源SOTA(最(zui)先進水(shui)平),并依(yi)托原生(sheng)視頻(pin)續寫任務(wu)預訓練(lian),實現(xian)分鐘級長視頻(pin)連貫生(sheng)成,保障跨幀時序(xu)一(yi)致(zhi)性與物理(li)運動合理(li)性。
美(mei)團LongCat團隊認為,此次發布的(de)視頻生成模(mo)(mo)型,是為探(tan)索“世界(jie)模(mo)(mo)型”邁出的(de)第一(yi)步。未來(lai),憑借精準重構真(zhen)實世界(jie)運行狀態的(de)能力,LongCat模(mo)(mo)型也(ye)會融入(ru)(ru)公(gong)司(si)(si)近年來(lai)持續投入(ru)(ru)的(de)自動駕駛、具身智能等深度交互業務場景中,成為公(gong)司(si)(si)更好(hao)連接“比特世界(jie)”和“原子世界(jie)”的(de)技(ji)術基礎。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新(xin)聞》報社授權,嚴禁轉載或(huo)鏡(jing)像,違者必究(jiu)。
讀(du)者熱線:4008890008
特別提(ti)醒(xing):如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿酬。如您不希望作品出現在本站,可聯系(xi)我們要求撤下您的作品。
歡迎關注每日經濟(ji)新聞APP