Midjourney正式跨足AI影片生成領域,從靜態圖像邁向多媒體創作
Midjourney 最近似乎做了一個滿讓人注意的動作,差不多在大家還沒完全適應他們圖像生成功能時,就突然推出了第一套 AI 影片生成功能 V1。這家公司規模其實不算大,靠著自己打拼到現在,人數也不到外界想像的那麼多,不過他們用戶卻已經累積到好像快有兩千萬左右吧。這次的新功能,有點像是把原本熟悉的圖片生成平台加上一層動畫效果——只要把生成好的靜態圖片(或是自己上傳的圖檔)放進去,按下「Animate」,畫面就會被拉成一小段五秒鐘左右的短片,而且還可以分段慢慢延長,每次多個五秒,到最後大概二十秒封頂。
這工具操作起來跟他們前陣子剛更新的第七代圖像模型流程差不多,基本上先出一張圖,再決定怎麼動起來。比較特別的是,有些人可能會直接用系統自帶的自動動畫合成功能;但另外也有人會寫點文字指令下去,告訴 AI 畫面裡哪些東西該怎麼移動——彷彿是在導演一場微型電影。
不過事情總沒那麼單純。除了技術話題之外,好像 Midjourney 現在還遇到一些法律問題,被幾家規模相當大的娛樂公司盯上。有些業界觀察者開始討論:對於那些想利用最新 AI 創意技術來行銷、廣告或提升互動體驗的人和企業而言,這樣的新服務到底真正帶來什麼?又或者說,比起現有越來越多競爭者,例如其他新興甚至老牌 AI 影像/影音模型,Midjourney 能不能保持自己的特色?
至於後面產業競賽誰勝誰負,目前看起來還很難下結論,也許會隨著不同情境與用戶需求而改變。整體感覺,他們是在某種程度嘗試把原本做得比較好的靜態視覺內容往更豐富、更立體的方向推,但未來是不是真的走得遠,其實仍有不少變數。
這工具操作起來跟他們前陣子剛更新的第七代圖像模型流程差不多,基本上先出一張圖,再決定怎麼動起來。比較特別的是,有些人可能會直接用系統自帶的自動動畫合成功能;但另外也有人會寫點文字指令下去,告訴 AI 畫面裡哪些東西該怎麼移動——彷彿是在導演一場微型電影。
不過事情總沒那麼單純。除了技術話題之外,好像 Midjourney 現在還遇到一些法律問題,被幾家規模相當大的娛樂公司盯上。有些業界觀察者開始討論:對於那些想利用最新 AI 創意技術來行銷、廣告或提升互動體驗的人和企業而言,這樣的新服務到底真正帶來什麼?又或者說,比起現有越來越多競爭者,例如其他新興甚至老牌 AI 影像/影音模型,Midjourney 能不能保持自己的特色?
至於後面產業競賽誰勝誰負,目前看起來還很難下結論,也許會隨著不同情境與用戶需求而改變。整體感覺,他們是在某種程度嘗試把原本做得比較好的靜態視覺內容往更豐富、更立體的方向推,但未來是不是真的走得遠,其實仍有不少變數。
新功能怎麼玩?教你用圖片轉影片和文字指令控制動態效果
最近Midjourney終於推出了影片生成功能,好像支援圖片轉換成動畫,也可以直接用文字編輯、調整畫面。有個有趣的小細節,使用者能在兩種動態模式之間切換,一種是低動作模式,偏向靜態、細微改變,例如角色眨眼、或背景風吹草動那樣。另一種則是高動作設定,會嘗試讓主體和鏡頭都有比較明顯的移動,不過這樣一來畫面出錯的機率似乎會提高。
那些操作按鈕大致上就放在網站右邊,靠近「動畫圖片」這個欄位下方。每次產生影片時,其實系統會給出四組各自長度約五秒的小片段讓人挑,有需要還可以再多延長幾秒,大致上單次最多二十秒左右。雖然目前看起來持續時間不算長,官方好像已經預告後續會再拓展功能與時長。
其實從Midjourney二○二二年夏天剛問世那陣子開始,它一直被不少創作者當作很厲害的AI圖像工具——主要是更新頻率頗快,又容易做出比較貼近真實感或變化多端的畫面,所以大家對它這次跨足影像領域也蠻期待。有些早期用戶分享下來的反饋大致正面,比如Perplexity AI設計師Phi Hoang在X(以前叫推特)上就有提到:「超乎我原本預期」,但畢竟每個人的需求不同,目前看到的評價還在持續累積中。
價格方面其實沒有太多門檻,如果已經訂閱他們的方案,每月大概只要付出一般影像生成將近八倍資源量,就能跑一次影片任務。不過因為一組影片能拿到將近二十秒內容,所以平均算下來,每秒成本跟產生一張靜態圖差不了多少。以現在市面競品來講,這種收費方式可能稍微有點競爭力,但具體適合哪些族群還得觀察看看。
那些操作按鈕大致上就放在網站右邊,靠近「動畫圖片」這個欄位下方。每次產生影片時,其實系統會給出四組各自長度約五秒的小片段讓人挑,有需要還可以再多延長幾秒,大致上單次最多二十秒左右。雖然目前看起來持續時間不算長,官方好像已經預告後續會再拓展功能與時長。
其實從Midjourney二○二二年夏天剛問世那陣子開始,它一直被不少創作者當作很厲害的AI圖像工具——主要是更新頻率頗快,又容易做出比較貼近真實感或變化多端的畫面,所以大家對它這次跨足影像領域也蠻期待。有些早期用戶分享下來的反饋大致正面,比如Perplexity AI設計師Phi Hoang在X(以前叫推特)上就有提到:「超乎我原本預期」,但畢竟每個人的需求不同,目前看到的評價還在持續累積中。
價格方面其實沒有太多門檻,如果已經訂閱他們的方案,每月大概只要付出一般影像生成將近八倍資源量,就能跑一次影片任務。不過因為一組影片能拿到將近二十秒內容,所以平均算下來,每秒成本跟產生一張靜態圖差不了多少。以現在市面競品來講,這種收費方式可能稍微有點競爭力,但具體適合哪些族群還得觀察看看。
Comparison Table:
工具名稱 | 功能特點 | 競爭優勢 | 法律問題 | 未來展望 |
---|---|---|---|---|
Luma Labs Dream Machine | 影像和聲音生成,Modify Video換膚重製影片風格 | 整合多媒體內容,豐富的使用體驗 | 無明顯法律問題,目前獲得好評 | 持續提升多媒體生成能力 |
Midjourney | 靜態圖生成功能,加上新推出的AI影片模型 | 低門檻、價格親民,用戶基數大約兩千萬 | 面臨迪士尼和環球的著作權訴訟,可能影響服務穩定性及發展方向 | 朝向世界模型進化,但需解決法務風險 |
Google Veo三代和OpenAI Sora | 文字、圖片、影片、聲音融合成完整場景調整能力強 | 大企業背書,技術底蘊深厚 | 未來可能面對類似版權挑戰 | 不斷增強功能以應對市場需求 |
Runway | 早期專注於AI影片生成,現計畫加入世界建模概念 | 先行者優勢,在創作者中享有良好口碑 | 尚無重大法律糾紛報導 | 探索沉浸式互動與3D空間建模方向 |
Odyssey | 根據用戶行為預測世界變化,即時互動能力強 | 結合硬體與軟體合作夥伴關係,擴展應用範圍 | 正在建立品牌認知,但實際運用仍在初階段 | 持續改進系統以吸引更多開發者參與 |

低預算創作者的福音!Midjourney影片方案價格竟然這麼親民
最近有個叫做「影片慢速模式」的東西,好像只針對比較高等級的Pro訂閱者在測試。這個模式,說白了跟之前那個圖片生成的慢速版本有點像,就是處理速度會拖慢一點,但換來的是運算成本能壓低一些。至於原本那種快產生影片的方式,還是照舊用計算資源去扣,反正每個訂閱方案給的額度都不太一樣。
其實不少人在社群上討論這定價,感覺普遍沒什麼太大反彈。有位叫@BLVCKLIGHTai的AI內容創作者在網路上也特別提到,他自己覺得費用大概跟放大圖片時差不了多少,所以如果只是想試試短片產生工具,好像也還算親民。大致對比起來,這價格和Luma AI推出、網頁版Lite方案差不多,也就剛過十元美金上下,比Runway那個標榜「標準」方案便宜一點——後者好像要將近十五美元吧。
說到這些工具,其它幾家也陸續端出自家產品。例如OpenAI那邊所謂Sora模型,如果連同ChatGPT Plus一起買,每月二十多美元可以做五十部影片,再往上一檔Pro就要兩百多美金;Google DeepMind則有個叫Veo 3的,要搭配AI Ultra服務,用下來得付兩百五十多美元左右;Runway家的Gen-4倒是有免費帳號,但只要你需求一多,一轉正規方案又分成十二、二十八、七十幾美金三種層級。Luma Labs推出Dream Machine時,也順帶把Web Lite設在十塊錢上下,甚至部分方案更便宜。
當然啦,各平台實際功能細節、限制、用途都不盡相同,有些人關心畫質,有些則是在意生成速度或授權問題。整體看起來,目前短片AI工具雖然選項變多了,價格門檻其實拉得比想像中低一些,只是用的人還是得根據需求細挑。不過是不是適合所有人,每個人觀感可能又不太一致。
其實不少人在社群上討論這定價,感覺普遍沒什麼太大反彈。有位叫@BLVCKLIGHTai的AI內容創作者在網路上也特別提到,他自己覺得費用大概跟放大圖片時差不了多少,所以如果只是想試試短片產生工具,好像也還算親民。大致對比起來,這價格和Luma AI推出、網頁版Lite方案差不多,也就剛過十元美金上下,比Runway那個標榜「標準」方案便宜一點——後者好像要將近十五美元吧。
說到這些工具,其它幾家也陸續端出自家產品。例如OpenAI那邊所謂Sora模型,如果連同ChatGPT Plus一起買,每月二十多美元可以做五十部影片,再往上一檔Pro就要兩百多美金;Google DeepMind則有個叫Veo 3的,要搭配AI Ultra服務,用下來得付兩百五十多美元左右;Runway家的Gen-4倒是有免費帳號,但只要你需求一多,一轉正規方案又分成十二、二十八、七十幾美金三種層級。Luma Labs推出Dream Machine時,也順帶把Web Lite設在十塊錢上下,甚至部分方案更便宜。
當然啦,各平台實際功能細節、限制、用途都不盡相同,有些人關心畫質,有些則是在意生成速度或授權問題。整體看起來,目前短片AI工具雖然選項變多了,價格門檻其實拉得比想像中低一些,只是用的人還是得根據需求細挑。不過是不是適合所有人,每個人觀感可能又不太一致。
和其他大廠比一比!Midjourney在AI影片大戰中的優劣勢分析
有些人可能注意到,Kling AI(原來叫做快手)年繳的話,每月大概七十元左右。MiniMax(海螺)這邊則是有分段計費,像偶爾產生一次,好像不到一塊的收費,標準方案也落在十來元每月,有時候會看到十五上下的價碼。Pika Labs(Pika 2.2)基本上用起來是免費的,但要更進階就差不多十元上下。Adobe 推出的 Firefly Video 好像也有提供部分免費額度,往上升級成標準方案大致是十元出頭,再高級一些就是三十接近的價位。
Higgsfield AI 基本方案看起來也是九元多一點。Genmo(Mochi)比較特別,目前屬於開源、免付費那種模式。而 Moonvalley 的 Marey 訂閱好像沒明說價格,只能估個大概,不太確定詳細數字。Lightricks 推出的 LTX Studio 較入門版月費大約也是九元左右。
如果拿音效來說,Midjourney 這套系統目前還沒有內建聲音這回事。不像 Google 的 Veo 3 或 Luma Labs 的 Dream Machine,可以一起產生背景音或聲效什麼的,會覺得 Midjourney 在這方面稍微弱了一點。不過內建編輯功能本身比 Runway、Sora 或 Luma 那幾款少一些,用起來相對單純。其實不同平台各有強項,也很難說哪一種適合所有人,每個用戶需求不太一樣吧。
Higgsfield AI 基本方案看起來也是九元多一點。Genmo(Mochi)比較特別,目前屬於開源、免付費那種模式。而 Moonvalley 的 Marey 訂閱好像沒明說價格,只能估個大概,不太確定詳細數字。Lightricks 推出的 LTX Studio 較入門版月費大約也是九元左右。
如果拿音效來說,Midjourney 這套系統目前還沒有內建聲音這回事。不像 Google 的 Veo 3 或 Luma Labs 的 Dream Machine,可以一起產生背景音或聲效什麼的,會覺得 Midjourney 在這方面稍微弱了一點。不過內建編輯功能本身比 Runway、Sora 或 Luma 那幾款少一些,用起來相對單純。其實不同平台各有強項,也很難說哪一種適合所有人,每個用戶需求不太一樣吧。

為什麼我的影片沒有聲音?揭密Midjourney目前最大功能限制
如果要加配樂,眼下還是得靠後製,另外用其他工具處理。Midjourney目前能產出的影片片段通常都不長,大概頂多二十秒上下。至於剪輯軸線、場景銜接或前後連貫什麼的,目前也沒看到有相關支援。官方倒是提過這只是剛起步,說他們一開始就是想讓大家能先玩玩看,也方便後續擴展。
最近AI影像這塊,好像一下子變得挺熱鬧。好多家大公司、創業團隊、甚至有些開源專案,都在搶著做。就說這幾天吧,中國那邊有個叫MiniMax的團隊,他們把自家的Hailuo模型升級了版本號,好像叫02。有些用戶反饋裡面提到畫面真實感不錯,動作跟提示算對得上,而且解析度比之前高一截。不過渲染速度嘛,有人覺得還需要再快點才行。蠻特別的是,這個模型好像在處理那些複雜動作或鏡頭運動時,比較容易抓到重點。有評論覺得它跟一些西方廠牌,比如Runway新出的Gen-3 Alpha或者Google那條Veo產品線,可以拿來比較看看。不過每家的強項可能各異,具體怎麼選,看需求吧。
最近AI影像這塊,好像一下子變得挺熱鬧。好多家大公司、創業團隊、甚至有些開源專案,都在搶著做。就說這幾天吧,中國那邊有個叫MiniMax的團隊,他們把自家的Hailuo模型升級了版本號,好像叫02。有些用戶反饋裡面提到畫面真實感不錯,動作跟提示算對得上,而且解析度比之前高一截。不過渲染速度嘛,有人覺得還需要再快點才行。蠻特別的是,這個模型好像在處理那些複雜動作或鏡頭運動時,比較容易抓到重點。有評論覺得它跟一些西方廠牌,比如Runway新出的Gen-3 Alpha或者Google那條Veo產品線,可以拿來比較看看。不過每家的強項可能各異,具體怎麼選,看需求吧。
迪士尼和環球影業聯手提告,Midjourney陷入侵權風暴核心
最近,大概有幾家AI影像生成工具在討論度上輪流升溫。Luma Labs的Dream Machine,大家說它可以同時弄出影像跟聲音,好像這點是Midjourney目前還沒有補齊的空缺。再加上,有個叫Modify Video的新功能,讓人能夠換膚或重製影片風格,這跟Runway那邊差不多。有些人也會提到Google Veo三代和OpenAI未來要推的Sora,那類產品好像都想把文字、圖片、影片、聲音揉成一個比較完整又能調整的場景。反觀Midjourney,看起來比較專注於讓門檻降低和壓低價格,就是偏向「差不多就行」然後大規模拋出去,不過這樣一來,就少了那些現在高階AI動態工具普遍具備的一些細緻功能。
前陣子突然冒出來的新聞——就在他們新服務快發表前沒多久——說Midjourney被捲進迪士尼和環球聯手打一場頗長篇幅的著作權訴訟案。據稱,美國那邊法院文件據說超過百頁(也可能不到),主要控訴內容圍繞著Midjourney用了一些知名角色,像漫威英雄、星戰系列、小小兵、史瑞克之類,都沒經過正式授權,而且還讓用戶很輕鬆地下載到帶有這些角色外觀的圖片。原告那方意思大概是說,平台根本變成一個無底洞式抄襲源泉,用戶隨便輸入就能生出什麼達斯維達或艾莎女王等各種形象,而且公司疑似直接用網路爬蟲抓取了受保護資料,也沒有特別設技術閘門去擋掉那些明顯撞臉版權IP的結果。
更妙的是,他們連即將推出的「影像服務」也提前列在訴狀裡,懷疑新模型早在公開前就已經拿這些素材開訓練,未來很可能會出現更多動畫版角色複製品。目前情況怎麼走向,其實還看不太清楚,但整體感覺就是糾紛只會越滾越大吧。
前陣子突然冒出來的新聞——就在他們新服務快發表前沒多久——說Midjourney被捲進迪士尼和環球聯手打一場頗長篇幅的著作權訴訟案。據稱,美國那邊法院文件據說超過百頁(也可能不到),主要控訴內容圍繞著Midjourney用了一些知名角色,像漫威英雄、星戰系列、小小兵、史瑞克之類,都沒經過正式授權,而且還讓用戶很輕鬆地下載到帶有這些角色外觀的圖片。原告那方意思大概是說,平台根本變成一個無底洞式抄襲源泉,用戶隨便輸入就能生出什麼達斯維達或艾莎女王等各種形象,而且公司疑似直接用網路爬蟲抓取了受保護資料,也沒有特別設技術閘門去擋掉那些明顯撞臉版權IP的結果。
更妙的是,他們連即將推出的「影像服務」也提前列在訴狀裡,懷疑新模型早在公開前就已經拿這些素材開訓練,未來很可能會出現更多動畫版角色複製品。目前情況怎麼走向,其實還看不太清楚,但整體感覺就是糾紛只會越滾越大吧。

AI影片市場殺紅眼!中國新創MiniMax如何用海螺02突圍
有些人可能還沒注意到,Midjourney在二〇二四年似乎賺了不少錢,據說營收大概有好幾億美金,而且用戶群也快要到兩千多萬。這種規模的發展,其實讓一些影視公司感覺挺不安的,因為他們認為這平台的成長,是靠著沒有經過補償的創作成果堆疊出來。迪士尼那邊,有位法務長Horacio Gutierrez,直接講話還蠻直接:「侵權就是侵權,就算是AI公司做的,也沒有比較沒問題。」類似這樣的法律糾紛,好像會對美國目前關於AI訓練資料還有生成內容控制的界線帶來一點挑戰。未來像Midjourney、OpenAI這些平台,要怎麼設計內容過濾或授權機制,也可能會受到影響。
企業如果對侵權風險比較敏感,有些服務(例如OpenAI出的Sora或者Adobe Firefly Video)好像本身就內建了賠償保障,所以用來做AI影片生成也許會讓人安心一點。
說回Midjourney自己,他們公開談新模型時提過,接下來的大方向已經很明確,就是想把靜態圖、動態畫面、三維空間導航,加上即時渲染之類全部揉在一起,朝向一個叫做世界模型(world model)的統合系統努力。不過眼前這些官司和疑慮,看起來暫時還沒什麼定論。
企業如果對侵權風險比較敏感,有些服務(例如OpenAI出的Sora或者Adobe Firefly Video)好像本身就內建了賠償保障,所以用來做AI影片生成也許會讓人安心一點。
說回Midjourney自己,他們公開談新模型時提過,接下來的大方向已經很明確,就是想把靜態圖、動態畫面、三維空間導航,加上即時渲染之類全部揉在一起,朝向一個叫做世界模型(world model)的統合系統努力。不過眼前這些官司和疑慮,看起來暫時還沒什麼定論。
未來要打造虛擬世界?Midjourney透露驚人的「世界模型」計畫
這些系統大致上想做的事,就是讓人可以在變動的環境裡自由走動。比方說,有些人在玩沉浸式遊戲或戴著VR裝置時,畫面、角色、甚至玩家本身的動作都會即時改變。未來某天,也許真的能直接開口說:「我想在傍晚時分逛一下摩洛哥市集。」然後眼前就出現一個可以四處探索、有各種細節和互動,甚至還可能有生成音效的世界。不過,目前好像也只能先做到影像階段而已。有聽說Midjourney把它形容成什麼「技術墊腳石」,意思是說要慢慢往更複雜那邊靠過去。
其實不只Midjourney,好幾家AI研究團隊都對這類點子感興趣。例如Odyssey——這家公司是由兩位曾經參與自駕車相關產業的人合夥創立的,他們最近才剛公開展示了一套系統,據稱每秒能播出三十多格畫面,並且場景還能隨著用戶移動視角來互動。這個模型好像主要是根據之前發生過什麼事情和用戶行為來預測「世界接下來會長怎樣」,讓人有種真的在3D空間裡四處張望的感覺。他們家自己有做360度攝影機硬體,也嘗試跟Unreal Engine、Blender這些三維平台合作,希望到後製階段還能再調整。不過目前看起來,用戶除了換個攝影機位置、看看模型隨機生成了哪些東西之外,好像暫時沒辦法掌控太多內容。
Runway也是差不多路線,很早以前就在做AI影片生成了,現在也開始把所謂「世界建模」列進公開規劃裡。不少人對未來怎麼發展還不是很確定,只知道大家都朝類似方向摸索吧。
其實不只Midjourney,好幾家AI研究團隊都對這類點子感興趣。例如Odyssey——這家公司是由兩位曾經參與自駕車相關產業的人合夥創立的,他們最近才剛公開展示了一套系統,據稱每秒能播出三十多格畫面,並且場景還能隨著用戶移動視角來互動。這個模型好像主要是根據之前發生過什麼事情和用戶行為來預測「世界接下來會長怎樣」,讓人有種真的在3D空間裡四處張望的感覺。他們家自己有做360度攝影機硬體,也嘗試跟Unreal Engine、Blender這些三維平台合作,希望到後製階段還能再調整。不過目前看起來,用戶除了換個攝影機位置、看看模型隨機生成了哪些東西之外,好像暫時沒辦法掌控太多內容。
Runway也是差不多路線,很早以前就在做AI影片生成了,現在也開始把所謂「世界建模」列進公開規劃裡。不少人對未來怎麼發展還不是很確定,只知道大家都朝類似方向摸索吧。

Runway和Odyssey這些競爭對手正在做哪些更酷的事情
Midjourney 最近推出的 AI 影片模型,像是那個在二〇二五年春天才出來的新版本,好像又多了點什麼。有人說它現在不只是讓畫面動起來,而是能讓人繞著東西轉、拉遠拉近,或者順順地穿梭在場景裡……這些聽起來有點像模擬遊戲?其實也有人覺得這已經開始分不清到底是在生成影片還是在玩模擬。
之前 Runway 的技術長寫過一篇文章,大概是一年多前吧,他談到所謂「世界模型」——就是那些能夠真的理解環境、甚至預測下一步會發生什麼事情的系統。換句話說,不光只是做出一幅好看的圖,而是真的開始摸索「場景行為」這件事。嗯,這方面好像不少團隊都投入了。例如 DeepMind,早些時候就在機器人訓練、增強學習領域打下基礎;還有剛冒出頭、由 Fei-Fei Li 領銜的新創,好像叫 World Labs?他們目標就明確瞄準模擬型 AI;微軟也是,企業端據說已經用上世界模型來做數位分身或某種培訓模擬;另外還有個比較低調但手上資源不少的新創 Decart,他們則琢磨著多智能體仿真之類。
其實 Midjourney 一路以來比較重視的是讓大家容易進入門檻,而且操作也親民,但最近似乎透露想要往更複雜的模擬框架走。公司提過,如果真要做到那一步,第一步可能得先把底層能力補齊:靜態畫面(最初的圖像)、動作(影片)、空間控制(位置移動),還要加上即時互動反應。目前這套新影片工具,就暫時當成打地基用的一塊磚好了。
從整體看下來,Midjourney 跳進影片生成算是順勢而為。畢竟原本靠圖片平台吸引了一大群用戶,也沒特別設限誰可以試水溫。而且價格結構對於一般創作者而言似乎相對友善,不會因為嘗鮮動畫功能就被嚇退。不過市場競爭越來越熱鬧,要說未來是不是每家都能穩住腳跟,也很難講。有些人可能關心的不單只有影像美感,更重要的是背後那一整套互動式 AI 世界的基本架構。所以眼下 Midjourney 推出的新產品,其實只是在鋪路——距離真正建好完整系統,看起來還早上一段路。
之前 Runway 的技術長寫過一篇文章,大概是一年多前吧,他談到所謂「世界模型」——就是那些能夠真的理解環境、甚至預測下一步會發生什麼事情的系統。換句話說,不光只是做出一幅好看的圖,而是真的開始摸索「場景行為」這件事。嗯,這方面好像不少團隊都投入了。例如 DeepMind,早些時候就在機器人訓練、增強學習領域打下基礎;還有剛冒出頭、由 Fei-Fei Li 領銜的新創,好像叫 World Labs?他們目標就明確瞄準模擬型 AI;微軟也是,企業端據說已經用上世界模型來做數位分身或某種培訓模擬;另外還有個比較低調但手上資源不少的新創 Decart,他們則琢磨著多智能體仿真之類。
其實 Midjourney 一路以來比較重視的是讓大家容易進入門檻,而且操作也親民,但最近似乎透露想要往更複雜的模擬框架走。公司提過,如果真要做到那一步,第一步可能得先把底層能力補齊:靜態畫面(最初的圖像)、動作(影片)、空間控制(位置移動),還要加上即時互動反應。目前這套新影片工具,就暫時當成打地基用的一塊磚好了。
從整體看下來,Midjourney 跳進影片生成算是順勢而為。畢竟原本靠圖片平台吸引了一大群用戶,也沒特別設限誰可以試水溫。而且價格結構對於一般創作者而言似乎相對友善,不會因為嘗鮮動畫功能就被嚇退。不過市場競爭越來越熱鬧,要說未來是不是每家都能穩住腳跟,也很難講。有些人可能關心的不單只有影像美感,更重要的是背後那一整套互動式 AI 世界的基本架構。所以眼下 Midjourney 推出的新產品,其實只是在鋪路——距離真正建好完整系統,看起來還早上一段路。
站在法律懸崖邊的Midjourney,下一步該怎麼走才能活下去
這次的推出,說起來其實讓公司同時踩進了幾個挺棘手的領域。有些人覺得,從產品角度來看,他們得面對一些速度快、功能又多的競爭者,而且這些對手好像還沒被那麼多法律問題纏身。至於規範那邊,目前正有一場官司在進行,要是判下來了,也許會改變美國AI公司訓練和應用生成式模型的方式。
如果站在企業負責人或資訊主管的視角,他們在挑選AI創作平台時,可能會覺得Midjourney這波發表好壞參半。一方面,工具本身成本低,也算跟著趨勢快速升級,用戶數也不少;不過另一方面,那些版權和監管相關的不確定性還懸在那裡——這種風險說不定哪天會影響到服務穩定性,甚至中斷都不是沒可能,有些企業反而會猶豫要不要大規模採用。
後續到底Midjourney能不能繼續保持現在的節奏,還是說遇到法務阻礙後必須調整他們的產品與經營模式?目前外界也只能觀望。畢竟整個AI內容產業似乎正在慢慢變成熟,以前草創期可以忽略的一些問題,現在開始浮現了。
講到每天追蹤商業案例,有個叫VB Daily的平台,好像專門分享各家公司怎麼用生成式AI,包括政策變動、應用情境等雜七雜八的小知識。如果有人想對老闆留下點印象,也許可以偶爾翻翻這類資訊,把最新趨勢帶進團隊討論。不過訂閱信什麼時候出錯或者連結跑掉,也是常有的事啦。
如果站在企業負責人或資訊主管的視角,他們在挑選AI創作平台時,可能會覺得Midjourney這波發表好壞參半。一方面,工具本身成本低,也算跟著趨勢快速升級,用戶數也不少;不過另一方面,那些版權和監管相關的不確定性還懸在那裡——這種風險說不定哪天會影響到服務穩定性,甚至中斷都不是沒可能,有些企業反而會猶豫要不要大規模採用。
後續到底Midjourney能不能繼續保持現在的節奏,還是說遇到法務阻礙後必須調整他們的產品與經營模式?目前外界也只能觀望。畢竟整個AI內容產業似乎正在慢慢變成熟,以前草創期可以忽略的一些問題,現在開始浮現了。
講到每天追蹤商業案例,有個叫VB Daily的平台,好像專門分享各家公司怎麼用生成式AI,包括政策變動、應用情境等雜七雜八的小知識。如果有人想對老闆留下點印象,也許可以偶爾翻翻這類資訊,把最新趨勢帶進團隊討論。不過訂閱信什麼時候出錯或者連結跑掉,也是常有的事啦。
