Runway AI Inc.今日發(fā)布其最先進的AI視頻生成模型,標志著影視制作工具競爭進入新階段。全新[Gen-4系統(tǒng)]首次實現(xiàn)多鏡頭間的角色與場景一致性——這項突破性能力此前長期困擾著AI視頻生成領(lǐng)域。
這家獲得谷歌、英偉達和Salesforce投資的紐約初創(chuàng)公司,已向所有付費用戶及企業(yè)客戶開放Gen-4,支持生成720p分辨率的5-10秒片段。此次發(fā)布恰逢OpenAI推出具備角色一致性的圖像生成功能后數(shù)日,后者因用戶瘋狂生成吉卜力風格圖像導(dǎo)致服務(wù)器過載,CEO薩姆·奧爾特曼戲稱"我們的GPU要熔化了"。
視覺連續(xù)性:AI影視制作的最后拼圖
角色一致性為OpenAI圖像功能帶來病毒式傳播,Runway能否在視頻領(lǐng)域復(fù)制這種成功?此前AI視頻的致命缺陷正在于——當角色面部在不同鏡頭間微妙變化,或背景元素無故消失時,人工痕跡便暴露無遺。
傳統(tǒng)AI生成器將每幀視為獨立創(chuàng)作任務(wù),效果如同讓多位畫家在互不知情的情況下分別繪制電影單幀。而Runway Gen-4通過建立視覺元素的持久記憶庫,能從多角度渲染角色/物體/環(huán)境并保持核心特征不變。這不僅是技術(shù)升級,更意味著從生成視覺片段到講述完整故事的跨越。
"通過視覺參考結(jié)合指令,Gen-4允許用戶創(chuàng)建風格、主體、場景一致的圖像與視頻,實現(xiàn)敘事連貫性"
——Runway官方推文[2025.3.31]
為展示模型能力,Runway發(fā)布了多部Gen-4制作的短片:將真實動物融入紐約街景的《紐約動物園》,以及講述神秘花卉搜尋之旅的《尋花記》(制作周期不足一周)。
從面部動畫到世界模型:Runway的進化之路
Gen-4繼承了Runway此前技術(shù)積累:
2024年10月推出Act-One,支持通過手機視頻捕捉面部表情并遷移至AI角色
11月為Gen-3 Alpha Turbo添加3D攝像機控制功能
這種演進揭示Runway的戰(zhàn)略遠見——當競爭者聚焦單鏡頭質(zhì)量時,它正構(gòu)建完整的數(shù)字制片流程,其邏輯更貼近傳統(tǒng)影視制作:將表演、鏡頭語言和視覺連續(xù)性作為有機整體而非孤立技術(shù)難題。
百億級市場的生死競速
據(jù)財報顯示,Runway目標在新產(chǎn)品和API推動下實現(xiàn)年收入3億美元,目前正以40億美元估值進行新一輪融資。該公司已與獅門影業(yè)達成合作,基于其2萬部影視庫開發(fā)定制模型,并設(shè)立百萬美元電影基金資助AI電影制作。
但技術(shù)革新伴隨行業(yè)陣痛:2024年研究報告顯示,75%采用AI的制片公司已開始裁員或崗位合并,預(yù)計到2026年全美將超10萬娛樂業(yè)崗位受沖擊。
版權(quán)爭議如影隨形
與所有AI公司相同,Runway面臨訓(xùn)練數(shù)據(jù)合法性質(zhì)疑。藝術(shù)家訴訟指控其未經(jīng)授權(quán)使用受版權(quán)保護作品,公司則以合理使用原則抗辯。爭議在OpenAI推出吉卜力風格生成功能后愈演愈烈——當AI能完美復(fù)刻宮崎駿耗費數(shù)十年打磨的視覺語言時,所謂"學(xué)習(xí)風格"與"復(fù)制創(chuàng)作"的界限已近乎消失。
工具已備,故事何在?
當營銷機構(gòu)、教育內(nèi)容創(chuàng)作者探索Gen-4如何簡化視頻生產(chǎn)時,核心問題已從技術(shù)能力轉(zhuǎn)向創(chuàng)意應(yīng)用。對獨立制作人而言,這是獲得頂級特效的機遇;對傳統(tǒng)特效師來說,則意味著職業(yè)危機。
值得深思的是:技術(shù)限制從來不是阻礙好作品的主因。當創(chuàng)建電影只需參考圖像和文字提示時,最關(guān)鍵的問題將變成——在這個可以隨意言說的時代,什么才真正值得表達?
精選文章: