熱文:視頻版Midjourney免費(fèi)開放,一句話拍大片!網(wǎng)友:上一次這么激動(dòng)還是上次了
家人們,現(xiàn)在做個(gè)影視級(jí)視頻,也就是一句話的事了!
例如只需簡(jiǎn)單輸入“叢林(Jungle)”,大片鏡頭便可立刻呈現(xiàn):
(資料圖片僅供參考)
而且圍繞著“叢林”變換幾個(gè)搭配的詞語(yǔ),比如“河流”、“瀑布”、“黃昏”、“白天”等,這個(gè)AI也能秒懂你的意思。
還有下面這些自然美景、宇宙奇觀、微觀細(xì)胞等高清視頻,統(tǒng)統(tǒng)只需一句話。
這就是Stable Diffusion和《瞬息全宇宙》背后技術(shù)公司Runway,出品的AI視頻編輯工具Gen2。
而且就在最近,一個(gè)好消息突然襲來——Gen2可以免費(fèi)試用了!
這可把網(wǎng)友們開心壞了,紛紛開始嘗鮮了起來。
體驗(yàn)Gen2實(shí)錄
例如我們給Gen2投喂了一句中文:
一個(gè)航拍視角的視頻片段便立即被做了出來。
如果想讓視頻的風(fēng)格變換一下,也可以上傳一張圖片,例如我們用的是一張賽博朋克風(fēng)格的城市照片。
那么Gen2就會(huì)把你輸出的提示詞和照片風(fēng)格做一個(gè)“合體”:
目前Runway官網(wǎng)可免費(fèi)體驗(yàn)Gen2的功能是文生視頻(Text to Video),但Gen1也開放了視頻生視頻(Video to Video)的功能。
例如一個(gè)國(guó)外小哥可能受《瞬息全宇宙》的啟發(fā),憑借Gen1也玩了一把更刺激的穿越。
他先是在家錄了一段打響指的視頻,然后“啪的一下”,瞬間讓自己步入歐洲皇室貴族的“片場(chǎng)”:
然后……就連物種、性別,都可以隨隨便便地切換:
最后,再經(jīng)歷幾次不同時(shí)空、人種的穿越之后,小哥一個(gè)響指又回到了自己的家里:
在看完Gen2生成的這波“大秀”之后,網(wǎng)友們不淡定了,直呼:
娛樂圈要被生成式AI重新定義了。
網(wǎng)頁(yè)端和移動(dòng)端(僅限iOS系統(tǒng))現(xiàn)在均可正式開始體驗(yàn)。
以網(wǎng)頁(yè)端為例,進(jìn)入Runway官方主頁(yè)(文末鏈接[1]),點(diǎn)擊上方“TRY NOW”并注冊(cè)賬號(hào),就可以進(jìn)入下面的界面:
點(diǎn)擊右方的“Introducing Gen2”,我們就可以正式開玩了。
首先,輸入提示詞,最多320個(gè)字符,然后在左邊的設(shè)置菜單里進(jìn)行一些基礎(chǔ)配置(包括種子參數(shù)、插值等),點(diǎn)擊“Generate”。
(當(dāng)然,你也可以為視頻提供一張參考圖像,點(diǎn)擊右邊的圖像圖標(biāo)即可。)
不到1分鐘的功夫,視頻就出來了。
點(diǎn)擊下方播放按鈕即可查看效果,視頻可以直接保存到本地,也可以只保存在你的賬戶中。
當(dāng)然,如果你不滿意,還能在下方的提示詞框中繼續(xù)修改。
需要注意的是,免費(fèi)試用的額度為105秒(右上角顯示剩余額度),每個(gè)視頻為4秒,也就是大約可免費(fèi)生成26個(gè)Gen2視頻。
額度用完或者你想體驗(yàn)去水印、提升分辨率等額外功能,就需要買會(huì)員,標(biāo)準(zhǔn)版為15美元一個(gè)月,Pro版35美元,年付更便宜一些。
如果你想要生成效果更好,可以多使用“in the style of xxx”的形式,比如:
A palm tree on a tropical beachin the style of professional cinematography, shallow depth of field, feature film.(如下圖)A palm tree on a tropical beachin the style of 2D animation, cartoon, hand drawn animation.
或者直接去它的靈感庫(kù),選擇一個(gè)你喜歡的視頻然后點(diǎn)擊“try it”即可查看它的提示詞是怎么寫的,然后在上面進(jìn)行編輯或模仿就好了:
還有網(wǎng)友表示,使用“cinematic shot of”開頭,也能讓你的視頻更具動(dòng)感(解決了很多人試出來的視頻不怎么動(dòng)的問題)。
什么來頭?
Gen2于今年3月20日正式發(fā)布,經(jīng)歷了兩個(gè)多月的內(nèi)測(cè),現(xiàn)在終于正式上線。
它的前代Gen1只比它早了一個(gè)多月(2月發(fā)布),所以說迭代速度相當(dāng)快。
作為一個(gè)基于擴(kuò)散的生成模型,Gen1通過在預(yù)訓(xùn)練圖像模型中引入時(shí)間層,并在圖像和視頻數(shù)據(jù)上進(jìn)行聯(lián)合訓(xùn)練,完成了潛擴(kuò)散模型到視頻生成領(lǐng)域的擴(kuò)展。
其中也包括使用一種全新的引導(dǎo)方法完成了對(duì)生成結(jié)果時(shí)間一致性的精確控制。
在訓(xùn)練階段,先用固定編碼器將輸入視頻x編碼為z0,并擴(kuò)散為zt。
然后對(duì)MiDaS獲得的深度圖進(jìn)行編碼,提取出結(jié)構(gòu)表示s;再用CLIP對(duì)其中一個(gè)幀進(jìn)行編碼來獲取內(nèi)容表示c。
接著,在s的幫助下,模型學(xué)習(xí)反轉(zhuǎn)潛空間中的擴(kuò)散過程(其中s與c以及通過交叉注意塊生成的c相連)。
在推理階段,模型以相同的方式提供輸入視頻的結(jié)構(gòu)s。
為了通過文本生成內(nèi)容,作者還通過一個(gè)prior將CLIP文本嵌入轉(zhuǎn)換為圖像嵌入。
最終,Gen1可以生成細(xì)粒度可控的視頻,也能對(duì)一些參考圖像進(jìn)行定制。
不過,一開始對(duì)公眾發(fā)布的Gen1只能對(duì)已有視頻進(jìn)行編輯,Gen2才直接完成了文生視頻的“蛻變”。
并且一口氣帶來了另外7大功能,包括文本+參考圖像生視頻、靜態(tài)圖片轉(zhuǎn)視頻、視頻風(fēng)格遷移等等。
這樣的Gen2,也在內(nèi)測(cè)階段就被網(wǎng)友稱贊“視頻界的Midjourney”。
而根據(jù)官方的調(diào)研數(shù)據(jù),Gen2確實(shí)更受用戶歡迎:用戶得分比Stable Diffusion 1.5要高73.53%,比Text2Live則高上了88.24%。
如今正式上線以后,果然迅速迎來一大波體驗(yàn)群眾,有人表示:
上一次體會(huì)到這么激動(dòng)的感覺,還是用AI生成圖像的時(shí)候。
那么,不知道這波,參與開發(fā)了SD的Runway,能否再帶著Gen2創(chuàng)造生成式AI領(lǐng)域的下一大熱趨勢(shì)——
如果答案是肯定的,還需要多久、還要解決哪些問題?
就且拭目以待。
參考鏈接:[1]https://runwayml.com/[2]]https://research.runwayml.com/gen2[3]https://twitter.com/SteveMills/status/1666799229996785666[4]https://twitter.com/runwayml/status/1666429706932043776[5]https://www.youtube.com/watch?v=dq8GZeDEqH8
本文來源:量子位,原文標(biāo)題:《視頻版Midjourney免費(fèi)開放,一句話拍大片!網(wǎng)友:上一次這么激動(dòng)還是上次了》
風(fēng)險(xiǎn)提示及免責(zé)條款 市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。關(guān)鍵詞: