MO STORIES
Seedance 2.0 是什麼?用 Kie AI 做 AI 影片的完整教學(2026)
最後更新:2026-04-05 先說結論:Seedance 2.0 值不值得用? 如果你要的是短秒數、可控、帶鏡頭語言的 AI 影片,Seedance 2.0 很值得研究。 如果你現在連 Kie 本身在做什麼、跟官方 API 差在哪、適不適合放進自己的工作流都還沒釐清,先讀這篇:Kie AI 完整介紹。 我會把它的定位...

最後更新:2026-04-05
先說結論:Seedance 2.0 值不值得用?
如果你要的是短秒數、可控、帶鏡頭語言的 AI 影片,Seedance 2.0 很值得研究。
如果你現在連 Kie 本身在做什麼、跟官方 API 差在哪、適不適合放進自己的工作流都還沒釐清,先讀這篇:Kie AI 完整介紹。
我會把它的定位講得很白:
- 它不是拿來替代剪輯軟體,而是拿來把「分鏡想法」更快變成可看的片段。
- 它最有價值的地方,不是只會 text-to-video,而是你可以混合文字、圖片、影片、音訊參考去控制結果。
- 如果你只是想先把角色、封面、海報做好,先去用圖片模型會比較穩,例如 Nano Banana 2 Kie 教學。
所以最短建議是:
- 你要做單張主視覺:先用圖片模型
- 你要做動態分鏡、運鏡、短廣告、預告片:用 Seedance 2.0
- 你要大量測試 prompt 和節奏:先用 Seedance 2.0 Fast
Seedance 2.0 是什麼?
短答:依照 Kie 官網說明,Seedance 2.0 是 ByteDance 的多模態 AI 影片模型,可以根據文字、圖片、影片、音訊參考生成畫面連貫、偏電影感、可帶原生音訊的短影片。
把官方說法翻成白話,就是:
- 它不只是「輸入一句 prompt 出影片」
- 它更強的是「你可以給參考素材,讓它學鏡頭、節奏、動作和風格」
- 它的重點是影片的連續性、動作可信度、鏡頭控制感
如果你之前用其他 AI 影片工具最常卡在這些問題:
- 角色前後長得不一樣
- 動作很飄、很假
- 轉場亂掉
- 鏡頭像抽卡,不像在導戲
那 Seedance 2.0 要解的,就是這一類痛點。
Kie 官網目前怎麼介紹 Seedance 2.0?
Kie 官網頁面把 Seedance 2.0 的賣點講得很集中,我整理成下面這張表。
| 官網重點 | 白話翻譯 | 你最可能拿來做什麼 |
|---|---|---|
| consistent, cinematic AI videos | 重點不是只有動起來,而是畫面要連貫、節奏像影片 | 廣告片、產品短片、預告感內容 |
| realistic human support | 人物動作與表情希望更像真人,不要太塑膠 | 人像、角色型影片、情境短片 |
| precise multimodal control | 不只吃文字,也能吃圖、影片、音訊參考 | 有明確風格板、分鏡、品牌素材時 |
| Standard mode | 品質與創作控制優先 | 正式成片、要交付客戶的版本 |
| Fast mode | 速度與成本優先 | 測 prompt、測節奏、批量試稿 |
| free credits for new users | 先測再決定,不用一開始就砸大錢 | 新手驗證可行性 |
如果你要直接試,這裡是 Kie AI 頁面:Kie AI Seedance 2.0(含 referral)。
官方 docs 實際支援哪些輸入?
短答:Kie docs 把 Seedance 2.0 的輸入拆得很清楚,核心是三大類。
| 類型 | docs 怎麼寫 | 你可以怎麼用 |
|---|---|---|
| Text-to-Video | 直接用文字描述生成影片 | 先做第一版概念片、腳本驗證 |
| Image-to-Video | 支援 0 到 2 張輸入圖 | 讓角色圖、產品圖、封面圖動起來 |
| Multimodal Reference-to-Video | 可吃 reference images、videos、audio | 想鎖風格、鎖運鏡、鎖節奏時最有用 |
Kie docs 還多補了幾個很關鍵的控制點:
| 參數 / 能力 | 作用 | 實際意義 |
|---|---|---|
first_frame_url |
指定第一張畫面 | 開頭畫面更穩 |
last_frame_url |
指定最後一張畫面 | 結尾更好收 |
reference_image_urls |
給圖片參考 | 鎖角色、場景、風格 |
reference_video_urls |
給影片參考 | 學鏡頭路徑、運動感、節奏 |
reference_audio_urls |
給音訊參考 | 做卡點、節奏對齊、口型同步相關工作流 |
generate_audio |
是否生成音訊 | 不是所有片都只出無聲版 |
duration |
4 到 15 秒 | 很明顯就是瞄準短片工作流 |
Kie docs 另外提醒一個很重要的限制:
Image-to-Video(首幀 / 首尾幀)和 Multimodal Reference-to-Video 是互斥場景,不能同時硬塞。
白話就是:
- 你如果要嚴格鎖定第一張和最後一張畫面,就優先走
first_frame_url/last_frame_url - 你如果要的是風格、運鏡、動作參考,就優先走 multimodal references
不要兩邊都想要、一次全塞,這通常是新手最常卡住的點。
Seedance 2.0 和 Seedance 2.0 Fast 怎麼選?
Kie 官網把兩種模式分得很直接。
| 你現在的任務 | 建議模式 | 原因 |
|---|---|---|
| 要做正式版本、比較重視質感和控制 | Seedance 2.0 Standard | 品質優先,適合 production-ready output |
| 要快速測 prompt、測節奏、測概念 | Seedance 2.0 Fast | 更快、更便宜,適合大量迭代 |
| 你還不知道這支片要不要做下去 | 先 Fast | 不要一開始就把成本燒在 final quality |
| 你已經確定腳本、分鏡、風格 | 再切回 Standard | 用 final prompt 做收尾比較合理 |
如果你要我給一句工作流建議,就是:
Fast 用來找方向,Standard 用來交作品。
Seedance 2.0 和 Nano Banana 2 差在哪?
這兩個常被一起搜,但本質上不是同一種東西。
| 比較點 | Nano Banana 2 | Seedance 2.0 |
|---|---|---|
| 核心用途 | 圖像生成 / 編輯 | 影片生成 |
| 最適合的任務 | 封面、海報、角色圖、產品圖 | 運鏡、動作、過場、短影片 |
| 你最在意的能力 | 構圖、文字渲染、單張品質 | 連續性、鏡頭語言、動態物理感 |
| 最穩的工作流 | 先把單張圖做對 | 先把分鏡節奏做對 |
| 實作順序建議 | 圖先定稿 | 再把圖拿去做片 |
如果你是做品牌內容、短影音或廣告素材,最穩的流程通常是:
- 先用 Nano Banana 2 做角色/產品主視覺
- 確定視覺方向後,再丟進 Seedance 2.0 做短片
- 最後把成品搬到自己的儲存空間,不要依賴第三方暫存檔
用 Kie 網頁版跑一支 Seedance 2.0,最快流程是什麼?
短答:先把任務類型選對,再把參考素材降到最少。
Step 1:先決定你是哪一種影片
你要先回答自己一個問題:
- 我要純文字出片?
- 我要讓一張圖動起來?
- 我要讓它學某支影片的鏡頭和節奏?
這一步如果沒選對,後面全都在瞎試。
Step 2:先只控制 3 個變數
第一輪建議你只控這三件事:
promptaspect_ratioduration
先不要急著同時丟:
- 兩張圖
- 一段參考影片
- 一段音樂
- 第一幀
- 最後一幀
一次給太多,通常只會讓你分不清到底是哪個條件在影響結果。
Step 3:影片 prompt 怎麼寫比較有用?
跟圖片 prompt 不一樣,影片 prompt 要多寫「動作」和「鏡頭」。
你可以直接照這個公式:
| 欄位 | 你要補什麼 | 範例 |
|---|---|---|
| 主體 | 誰在動 | 一位穿黑色風衣的亞洲男性 |
| 場景 | 在哪裡 | 夜晚下雨的台北街頭 |
| 動作 | 他在做什麼 | 慢慢回頭,看向鏡頭 |
| 鏡頭 | 攝影機怎麼動 | 緩慢 push-in,50mm,淺景深 |
| 光線 | 畫面質感 | 霓虹反光、低光、高對比 |
| 節奏 | 快還是慢 | 慢節奏、情緒堆疊 |
Step 4:第二輪再加參考素材
當你第一支片方向對了,再開始加:
- 參考圖:鎖角色/產品外觀
- 參考影片:學運鏡、節奏、轉場
- 參考音訊:做卡點或同步感
順序不要反過來。
用 Kie API 跑 Seedance 2.0 的基本範例
短答:依照 Kie docs,核心還是兩步。
createTask建任務- 用 callback 或查詢狀態拿結果
Step A:建立任務
curl -sS -X POST "https://api.kie.ai/api/v1/jobs/createTask" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_KIE_AI_API_KEY" \
--data '{
"model": "bytedance/seedance-2",
"callBackUrl": "https://your-domain.com/api/callback",
"input": {
"prompt": "A cinematic close-up of a woman standing under neon signs in the rain, slow camera push-in, realistic motion, dramatic lighting",
"first_frame_url": "https://your-cdn.com/first-frame.png",
"reference_image_urls": [
"https://your-cdn.com/character-reference.png"
],
"generate_audio": false,
"resolution": "720p",
"aspect_ratio": "16:9",
"duration": 10
}
}'
如果只是第一輪測試,建議先把參考素材砍到最少。
Step B:拿結果時,先記住它是非同步
Kie 的 Getting Started 文件寫得很清楚:
- 200 只代表 task 建立成功
- 不代表影片已經生成完成
- 正式上線比較建議用 callback,不要一直手動輪詢
你如果是做 n8n / server workflow,思路通常會像這樣:
- 前端或 Notion 填 prompt
- 後端送
createTask - 等 callback 或查 task 狀態
- 拿到影片後,搬到自己的儲存空間
Kie 官方 docs 還有 5 個很值得先知道的營運細節
| 官方文件重點 | 白話翻譯 | 你該怎麼做 |
|---|---|---|
| Pricing 以官方 pricing page 為準 | 不要迷信舊文章截圖 | 上線前重看價格頁 |
| 價格通常比官方 API 低 30%–50%,部分模型折扣更高 | Kie 的定位就是聚合與成本優化 | 先把工作流跑通,再決定是否長期用 |
| Generated media 保留 14 天 | 成品不會永久幫你存 | 影片要下載或搬到 R2 / S3 |
| Log records 保留 2 個月 | 任務歷史能查,但不是永久 archive | 正式案子要自己留版本紀錄 |
| 預設限制為每 10 秒最多 20 個新任務 | 大量批次時不能無腦衝 | 有批次需求就做 queue 或節流 |
這一段很重要,因為很多人把第三方平台當成永久雲端,最後最常出事的就是:
- 影片連結失效
- 成本估錯
- 批量任務被限流
常見踩坑:為什麼影片看起來還是很 AI?
短答:不是模型不夠強,通常是你把「影片任務」當成「圖片任務」在寫。
| 症狀 | 最常見原因 | 快速修法 |
|---|---|---|
| 人物一直變臉 | 沒有角色參考圖,或描述太抽象 | 先給 reference image,再減少描述噪音 |
| 鏡頭很亂 | 沒寫 camera movement,只寫場景 | 補上 push-in、tracking、orbit 這類鏡頭語言 |
| 動作很假 | 動作寫太大、太快、太多 | 一次只做一個主動作 |
| 節奏怪 | prompt 沒有節奏感,或音訊參考太亂 | 先固定 duration,再慢慢補參考音訊 |
| 首尾接不起來 | 同時亂用 first/last frame 與 multimodal references | 先選一種控制策略,不要貪心 |
下一步行動
- 先決定你要的是文字出片、圖片出片,還是參考驅動出片。
- 第一輪只控
prompt + 比例 + 秒數,不要一開始就把參考素材塞滿。 - 找到可用方向後,再切到 Standard mode 做正式版。
- 成片下載後,立即搬到自己的儲存空間。
常見問題 FAQ
Q: Seedance 2.0 是文字轉影片,還是圖片轉影片?
兩種都可以。Kie docs 明確列出 Text-to-Video 與 Image-to-Video,另外還支援 reference image / reference video / reference audio 這種多模態參考工作流。
Q: Seedance 2.0 Fast 和 Standard 差在哪?
Kie 官網的定位很清楚:Fast 偏向更快、更便宜、適合快速迭代;Standard 偏向更高品質與更強控制,適合正式輸出。
Q: 我可以同時指定 first frame、last frame,再加一堆 reference video 嗎?
不建議。Kie docs 有特別寫,首幀/首尾幀場景和多模態參考場景是互斥邏輯。你要先決定你是要「嚴格鎖畫面」還是「參考驅動」。
Q: Seedance 2.0 比較適合什麼長度的影片?
依照 Kie docs,時長控制是 4 到 15 秒。這很明顯就是為短影音、廣告片段、分鏡測試、過場片段設計的。
Q: 生成好的影片會永久保留嗎?
不會。Kie 的 Getting Started 文件寫的是 generated media 保留 14 天,log records 保留 2 個月。所以正式案子一定要下載或搬到自己的儲存空間。
資料來源
資料最後查核日期:2026-04-05

關於作者 | 10+ 經驗
MO 編輯
WordPress 效能優化專家 / MO Design Studio 共同創辦人
關注設計 × 工程的平衡協作,擅長以簡潔語言說故事。專門幫已有網站的品牌做速度升級。相信好網站不用重做,只需要正確的優化。
延伸閱讀

Kie AI 是什麼?一篇看懂模型市場、價格與 API 工作流(2026)
Kie AI 是什麼?這篇用 Kie 官網與 docs 整理它的定位、模型市場、價格邏輯、API 工作流、限制、保存期限, 以及它跟直接串官方 API 的差異。...

Nano Banana 2 是什麼?用 Kie AI 生成圖的超快教學(2026)
Nano Banana 2 是 Google 在 2026-02-26 公開的最新圖像能力(Gemini 3.1 Flash)。這篇教你用 Kie AI 的 nano-banana-2 生成圖:prompt 公式、常見踩坑、以及 curl API 範例。...

Claude GitHub App 怎麼裝?從 /install-github-app、權限到 @claude 排查完整指南(2026)
Claude GitHub app 怎麼裝?這篇專門整理 /install-github-app 的前提、手動安裝流程、repo 權限、ANTHROPIC_API_KEY secret,以及 @claude 沒反應時的排查順序。...
訂閱瘦生活電子報
每週一封故事信——分享如何用減法思維剔除雜訊、做對的事、過好生活。不說教,不推銷,只有真實的取捨紀錄。