Runway新功能“運(yùn)動筆刷”再次驚艷AI圈:隨手一涂圖片就動起來了
昨日 Runway 宣布,即將在視頻生成工具 Gen-2 中上線「Motion Brush」(運(yùn)動筆刷)功能,一種可控制生成內(nèi)容移動的新方法。
不管是水流、云彩、火焰、煙霧還是人物,都能高度還原其動態(tài)。這就是傳說中的「點(diǎn)石成金」嗎?
Runway 曾在今年 2 月推出了 Gen-1,功能非常豐富,包括風(fēng)格化、故事版、蒙版、渲染、自定義等等??雌饋恚@是一個專注于「編輯」視頻的工具。
但今年 3 月,Gen-2 的面世改變了一切,它新增了文字、圖片生成視頻功能。用戶僅需輸入文字、圖像或文字加圖像的描述,Gen-2 即可在很短的時間內(nèi)生成相關(guān)視頻。
這是市場上第一個公開可用的文本到視頻模型。比如輸入一段純文字「午后的陽光透過紐約閣樓的窗戶照進(jìn)來」,Gen-2 會直接「腦補(bǔ)」出視頻:
現(xiàn)在,只需幾個 prompt 和手勢,我們就能生成像樣的視頻并進(jìn)一步編輯,復(fù)雜的視頻編輯軟件和冗長的制作流程一去不復(fù)返。
如果將文生圖神器 Midjourney 與文生視頻神器 Gen-2 結(jié)合起來使用,用戶完全可以不動筆,直出大片。
當(dāng)然,Gen-2 也是有競爭對手的,就是 Pika Labs,特別是后者還是免費(fèi)的。
對于這種瘋狂卷的態(tài)勢,一部分用戶是非常期待的:「2024 年,Pika Labs 和 Runway 之間的拉扯一定很有意思?!?/p>
傳聞中,OpenAI 也有視頻生成相關(guān)的技術(shù)。有網(wǎng)友表示:「這讓我不禁好奇,OpenAI 的 any-to-any 模型在生成視頻方面究竟有多出色,因?yàn)檫@家公司通常都走在別人前面。」
原標(biāo)題:《Runway新功能「運(yùn)動筆刷」再次驚艷AI圈:隨手一涂,圖片就動起來了》
本文為澎湃號作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問。
本文由:捕魚大作戰(zhàn)機(jī)械公司提供