MO STORIES

Seedance 2.0 是什麼?用 Kie AI 做 AI 影片的完整教學(2026)

2026年4月5日13 MIN READ

最後更新:2026-04-05 先說結論:Seedance 2.0 值不值得用? 如果你要的是短秒數、可控、帶鏡頭語言的 AI 影片,Seedance 2.0 很值得研究。 如果你現在連 Kie 本身在做什麼、跟官方 API 差在哪、適不適合放進自己的工作流都還沒釐清,先讀這篇:Kie AI 完整介紹。 我會把它的定位...

Seedance 2.0 是什麼?用 Kie AI 做 AI 影片的完整教學(2026)
Cover Visual

最後更新:2026-04-05

先說結論:Seedance 2.0 值不值得用?

如果你要的是短秒數、可控、帶鏡頭語言的 AI 影片,Seedance 2.0 很值得研究。

如果你現在連 Kie 本身在做什麼、跟官方 API 差在哪、適不適合放進自己的工作流都還沒釐清,先讀這篇:Kie AI 完整介紹

我會把它的定位講得很白:

  1. 它不是拿來替代剪輯軟體,而是拿來把「分鏡想法」更快變成可看的片段。
  2. 它最有價值的地方,不是只會 text-to-video,而是你可以混合文字、圖片、影片、音訊參考去控制結果。
  3. 如果你只是想先把角色、封面、海報做好,先去用圖片模型會比較穩,例如 Nano Banana 2 Kie 教學

所以最短建議是:

  • 你要做單張主視覺:先用圖片模型
  • 你要做動態分鏡、運鏡、短廣告、預告片:用 Seedance 2.0
  • 你要大量測試 prompt 和節奏:先用 Seedance 2.0 Fast

Seedance 2.0 是什麼?

短答:依照 Kie 官網說明,Seedance 2.0 是 ByteDance 的多模態 AI 影片模型,可以根據文字、圖片、影片、音訊參考生成畫面連貫、偏電影感、可帶原生音訊的短影片。

把官方說法翻成白話,就是:

  • 它不只是「輸入一句 prompt 出影片」
  • 它更強的是「你可以給參考素材,讓它學鏡頭、節奏、動作和風格」
  • 它的重點是影片的連續性、動作可信度、鏡頭控制感

如果你之前用其他 AI 影片工具最常卡在這些問題:

  • 角色前後長得不一樣
  • 動作很飄、很假
  • 轉場亂掉
  • 鏡頭像抽卡,不像在導戲

那 Seedance 2.0 要解的,就是這一類痛點。


Kie 官網目前怎麼介紹 Seedance 2.0?

Kie 官網頁面把 Seedance 2.0 的賣點講得很集中,我整理成下面這張表。

官網重點 白話翻譯 你最可能拿來做什麼
consistent, cinematic AI videos 重點不是只有動起來,而是畫面要連貫、節奏像影片 廣告片、產品短片、預告感內容
realistic human support 人物動作與表情希望更像真人,不要太塑膠 人像、角色型影片、情境短片
precise multimodal control 不只吃文字,也能吃圖、影片、音訊參考 有明確風格板、分鏡、品牌素材時
Standard mode 品質與創作控制優先 正式成片、要交付客戶的版本
Fast mode 速度與成本優先 測 prompt、測節奏、批量試稿
free credits for new users 先測再決定,不用一開始就砸大錢 新手驗證可行性

如果你要直接試,這裡是 Kie AI 頁面:Kie AI Seedance 2.0(含 referral)


官方 docs 實際支援哪些輸入?

短答:Kie docs 把 Seedance 2.0 的輸入拆得很清楚,核心是三大類。

類型 docs 怎麼寫 你可以怎麼用
Text-to-Video 直接用文字描述生成影片 先做第一版概念片、腳本驗證
Image-to-Video 支援 0 到 2 張輸入圖 讓角色圖、產品圖、封面圖動起來
Multimodal Reference-to-Video 可吃 reference images、videos、audio 想鎖風格、鎖運鏡、鎖節奏時最有用

Kie docs 還多補了幾個很關鍵的控制點:

參數 / 能力 作用 實際意義
first_frame_url 指定第一張畫面 開頭畫面更穩
last_frame_url 指定最後一張畫面 結尾更好收
reference_image_urls 給圖片參考 鎖角色、場景、風格
reference_video_urls 給影片參考 學鏡頭路徑、運動感、節奏
reference_audio_urls 給音訊參考 做卡點、節奏對齊、口型同步相關工作流
generate_audio 是否生成音訊 不是所有片都只出無聲版
duration 4 到 15 秒 很明顯就是瞄準短片工作流

Kie docs 另外提醒一個很重要的限制:

Image-to-Video(首幀 / 首尾幀)和 Multimodal Reference-to-Video 是互斥場景,不能同時硬塞。

白話就是:

  • 你如果要嚴格鎖定第一張和最後一張畫面,就優先走 first_frame_url / last_frame_url
  • 你如果要的是風格、運鏡、動作參考,就優先走 multimodal references

不要兩邊都想要、一次全塞,這通常是新手最常卡住的點。


Seedance 2.0 和 Seedance 2.0 Fast 怎麼選?

Kie 官網把兩種模式分得很直接。

你現在的任務 建議模式 原因
要做正式版本、比較重視質感和控制 Seedance 2.0 Standard 品質優先,適合 production-ready output
要快速測 prompt、測節奏、測概念 Seedance 2.0 Fast 更快、更便宜,適合大量迭代
你還不知道這支片要不要做下去 先 Fast 不要一開始就把成本燒在 final quality
你已經確定腳本、分鏡、風格 再切回 Standard 用 final prompt 做收尾比較合理

如果你要我給一句工作流建議,就是:

Fast 用來找方向,Standard 用來交作品。


Seedance 2.0 和 Nano Banana 2 差在哪?

這兩個常被一起搜,但本質上不是同一種東西。

比較點 Nano Banana 2 Seedance 2.0
核心用途 圖像生成 / 編輯 影片生成
最適合的任務 封面、海報、角色圖、產品圖 運鏡、動作、過場、短影片
你最在意的能力 構圖、文字渲染、單張品質 連續性、鏡頭語言、動態物理感
最穩的工作流 先把單張圖做對 先把分鏡節奏做對
實作順序建議 圖先定稿 再把圖拿去做片

如果你是做品牌內容、短影音或廣告素材,最穩的流程通常是:

  1. 先用 Nano Banana 2 做角色/產品主視覺
  2. 確定視覺方向後,再丟進 Seedance 2.0 做短片
  3. 最後把成品搬到自己的儲存空間,不要依賴第三方暫存檔

用 Kie 網頁版跑一支 Seedance 2.0,最快流程是什麼?

短答:先把任務類型選對,再把參考素材降到最少。

Step 1:先決定你是哪一種影片

你要先回答自己一個問題:

  • 我要純文字出片?
  • 我要讓一張圖動起來?
  • 我要讓它學某支影片的鏡頭和節奏?

這一步如果沒選對,後面全都在瞎試。

Step 2:先只控制 3 個變數

第一輪建議你只控這三件事:

  1. prompt
  2. aspect_ratio
  3. duration

先不要急著同時丟:

  • 兩張圖
  • 一段參考影片
  • 一段音樂
  • 第一幀
  • 最後一幀

一次給太多,通常只會讓你分不清到底是哪個條件在影響結果。

Step 3:影片 prompt 怎麼寫比較有用?

跟圖片 prompt 不一樣,影片 prompt 要多寫「動作」和「鏡頭」。

你可以直接照這個公式:

欄位 你要補什麼 範例
主體 誰在動 一位穿黑色風衣的亞洲男性
場景 在哪裡 夜晚下雨的台北街頭
動作 他在做什麼 慢慢回頭,看向鏡頭
鏡頭 攝影機怎麼動 緩慢 push-in,50mm,淺景深
光線 畫面質感 霓虹反光、低光、高對比
節奏 快還是慢 慢節奏、情緒堆疊

Step 4:第二輪再加參考素材

當你第一支片方向對了,再開始加:

  • 參考圖:鎖角色/產品外觀
  • 參考影片:學運鏡、節奏、轉場
  • 參考音訊:做卡點或同步感

順序不要反過來。


用 Kie API 跑 Seedance 2.0 的基本範例

短答:依照 Kie docs,核心還是兩步。

  1. createTask 建任務
  2. 用 callback 或查詢狀態拿結果

Step A:建立任務

curl -sS -X POST "https://api.kie.ai/api/v1/jobs/createTask" \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_KIE_AI_API_KEY" \
  --data '{
    "model": "bytedance/seedance-2",
    "callBackUrl": "https://your-domain.com/api/callback",
    "input": {
      "prompt": "A cinematic close-up of a woman standing under neon signs in the rain, slow camera push-in, realistic motion, dramatic lighting",
      "first_frame_url": "https://your-cdn.com/first-frame.png",
      "reference_image_urls": [
        "https://your-cdn.com/character-reference.png"
      ],
      "generate_audio": false,
      "resolution": "720p",
      "aspect_ratio": "16:9",
      "duration": 10
    }
  }'

如果只是第一輪測試,建議先把參考素材砍到最少。

Step B:拿結果時,先記住它是非同步

Kie 的 Getting Started 文件寫得很清楚:

  • 200 只代表 task 建立成功
  • 不代表影片已經生成完成
  • 正式上線比較建議用 callback,不要一直手動輪詢

你如果是做 n8n / server workflow,思路通常會像這樣:

  1. 前端或 Notion 填 prompt
  2. 後端送 createTask
  3. 等 callback 或查 task 狀態
  4. 拿到影片後,搬到自己的儲存空間

Kie 官方 docs 還有 5 個很值得先知道的營運細節

官方文件重點 白話翻譯 你該怎麼做
Pricing 以官方 pricing page 為準 不要迷信舊文章截圖 上線前重看價格頁
價格通常比官方 API 低 30%–50%,部分模型折扣更高 Kie 的定位就是聚合與成本優化 先把工作流跑通,再決定是否長期用
Generated media 保留 14 天 成品不會永久幫你存 影片要下載或搬到 R2 / S3
Log records 保留 2 個月 任務歷史能查,但不是永久 archive 正式案子要自己留版本紀錄
預設限制為每 10 秒最多 20 個新任務 大量批次時不能無腦衝 有批次需求就做 queue 或節流

這一段很重要,因為很多人把第三方平台當成永久雲端,最後最常出事的就是:

  • 影片連結失效
  • 成本估錯
  • 批量任務被限流

常見踩坑:為什麼影片看起來還是很 AI?

短答:不是模型不夠強,通常是你把「影片任務」當成「圖片任務」在寫。

症狀 最常見原因 快速修法
人物一直變臉 沒有角色參考圖,或描述太抽象 先給 reference image,再減少描述噪音
鏡頭很亂 沒寫 camera movement,只寫場景 補上 push-in、tracking、orbit 這類鏡頭語言
動作很假 動作寫太大、太快、太多 一次只做一個主動作
節奏怪 prompt 沒有節奏感,或音訊參考太亂 先固定 duration,再慢慢補參考音訊
首尾接不起來 同時亂用 first/last frame 與 multimodal references 先選一種控制策略,不要貪心

下一步行動

  1. 先決定你要的是文字出片、圖片出片,還是參考驅動出片。
  2. 第一輪只控 prompt + 比例 + 秒數,不要一開始就把參考素材塞滿。
  3. 找到可用方向後,再切到 Standard mode 做正式版。
  4. 成片下載後,立即搬到自己的儲存空間。

常見問題 FAQ

Q: Seedance 2.0 是文字轉影片,還是圖片轉影片?

兩種都可以。Kie docs 明確列出 Text-to-Video 與 Image-to-Video,另外還支援 reference image / reference video / reference audio 這種多模態參考工作流。

Q: Seedance 2.0 Fast 和 Standard 差在哪?

Kie 官網的定位很清楚:Fast 偏向更快、更便宜、適合快速迭代;Standard 偏向更高品質與更強控制,適合正式輸出。

Q: 我可以同時指定 first frame、last frame,再加一堆 reference video 嗎?

不建議。Kie docs 有特別寫,首幀/首尾幀場景和多模態參考場景是互斥邏輯。你要先決定你是要「嚴格鎖畫面」還是「參考驅動」。

Q: Seedance 2.0 比較適合什麼長度的影片?

依照 Kie docs,時長控制是 4 到 15 秒。這很明顯就是為短影音、廣告片段、分鏡測試、過場片段設計的。

Q: 生成好的影片會永久保留嗎?

不會。Kie 的 Getting Started 文件寫的是 generated media 保留 14 天,log records 保留 2 個月。所以正式案子一定要下載或搬到自己的儲存空間。


資料來源

資料最後查核日期:2026-04-05

MO 編輯

關於作者 | 10+ 經驗

MO 編輯

WordPress 效能優化專家 / MO Design Studio 共同創辦人

關注設計 × 工程的平衡協作,擅長以簡潔語言說故事。專門幫已有網站的品牌做速度升級。相信好網站不用重做,只需要正確的優化。

WordPress 優化SEO 策略Headless CMS效能稽核

延伸閱讀

Newsletter

訂閱瘦生活電子報

每週一封故事信——分享如何用減法思維剔除雜訊、做對的事、過好生活。不說教,不推銷,只有真實的取捨紀錄。

我們尊重隱私,絕不發送垃圾郵件。可隨時取消訂閱。

MO DESIGN STUDIO

我們專注品牌網站設計、行銷著陸頁與整合式 CMS 流程,協助團隊打造有感的線上體驗。

返回部落格