產經情報

影像版 Midjourney 又進化:一句話產生影像,Google 投資,網友大呼好萊塢已死!

日期:2023-06-28

提到生成式 AI 大模型,文字領域有 ChatGPT,圖像領域有 Midjourney 和 Stable Diffusion,那影片領域有什麼?

很多人第一個會想到Runway公司的Gen-1。Gen-1是Runway 2月推出的(也是第一款)文字產生影像的AI大模型。不過幾天前更新版Gen-2發表了。Gen-2從3月底開始小範圍測試,當時發言人Kelsey Rondenet說Gen-2會在幾週內開放,不過直到6月,這承諾才算兌現。

千呼萬喚始出來的Gen-2,到底進化到哪了?

真正從零產生影像

發表Gen-1時Runway專門做網頁講解Gen-1怎麼用,有五個功能:

輸入一張圖片當提示,讓影像產生你想要的風格。
上傳影片及提示詞,產生想要的影片(如拉布拉多變成大麥町)。
輸入圖片或提示詞,讓3D建模影像草稿變完整。
上傳隨意影片,產生有故事感的片段(如隨意擺放的書最後成為高樓大廈)。
原影像基礎上,自由設定想要的風格(哪怕變出現實不存在的奇行種)。
發現了嗎?Gen-1可用前提是要有支現成影片,Gen-1作用只等於原影片加上高級濾鏡。到了Gen-2,才真正達成從零產生影片的夢想。從介紹看,Gen-2比Gen-1多了3個厲害功能:

文字到影片:只要輸入提示詞,就能產生影片。
文字和圖片到影片:輸入一張圖片+提示詞,就能讓圖片動起來。
圖片到影片:只要輸入一張圖片,就能自動產生一段影片(如讓雲飄起來、水流人走)。
如果說Gen-1只能當成修改影片工具,那Gen-2幾乎就能當成影片生產工具了──試想用文字產生幾支影片,拼成一支就能講個完整的故事……總之就是只能玩玩和能商用的差別。雖然目前Gen-2產生影片依然有細節模糊、形體扭曲等問題,且長度最多4秒,但可能是現在影片產生領域最厲害的AI工具了。


詳細內文請參考網址...