論文の概要: MotionV2V: Editing Motion in a Video
- arxiv url: http://arxiv.org/abs/2511.20640v1
- Date: Tue, 25 Nov 2025 18:57:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.639575
- Title: MotionV2V: Editing Motion in a Video
- Title(参考訳): MotionV2V:動画で動画を編集する
- Authors: Ryan Burgert, Charles Herrmann, Forrester Cole, Michael S Ryoo, Neal Wadhwa, Andrey Voynov, Nataniel Ruiz,
- Abstract要約: 入力から抽出したスパーストラジェクトリを編集し,映像の動きを変化させることを提案する。
入力と出力の軌跡のずれを「運動編集」と呼ぶ。
私たちのアプローチでは、任意のタイムスタンプから始まり、自然に伝播する編集が可能になります。
- 参考スコア(独自算出の注目度): 53.791975554391534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While generative video models have achieved remarkable fidelity and consistency, applying these capabilities to video editing remains a complex challenge. Recent research has explored motion controllability as a means to enhance text-to-video generation or image animation; however, we identify precise motion control as a promising yet under-explored paradigm for editing existing videos. In this work, we propose modifying video motion by directly editing sparse trajectories extracted from the input. We term the deviation between input and output trajectories a "motion edit" and demonstrate that this representation, when coupled with a generative backbone, enables powerful video editing capabilities. To achieve this, we introduce a pipeline for generating "motion counterfactuals", video pairs that share identical content but distinct motion, and we fine-tune a motion-conditioned video diffusion architecture on this dataset. Our approach allows for edits that start at any timestamp and propagate naturally. In a four-way head-to-head user study, our model achieves over 65 percent preference against prior work. Please see our project page: https://ryanndagreat.github.io/MotionV2V
- Abstract(参考訳): 生成ビデオモデルは驚くほどの忠実さと一貫性を達成したが、これらの機能をビデオ編集に適用することは難しい課題である。
近年,テキスト・トゥ・ビデオ・ジェネレーションやイメージ・アニメーションを向上する手段として,動作制御性について検討されているが,既存の動画を編集する上で,正確な動作制御は有望だが未探索のパラダイムとして認識されている。
本研究では,入力から抽出したスパーストラジェクトリを直接編集することで,映像の動きの修正を提案する。
我々は、入力と出力の軌跡のずれを「モーション編集」と呼び、この表現が生成したバックボーンと組み合わせることで、強力なビデオ編集機能を実現することを実証する。
これを実現するために、同一内容の異なる動きを共有するビデオペアである「動き反事実」を生成するパイプラインを導入し、このデータセット上に動き条件付きビデオ拡散アーキテクチャを微調整する。
私たちのアプローチでは、任意のタイムスタンプから始まり、自然に伝播する編集が可能になります。
4方向のユーザ・ツー・ヘッドによる調査では,従来の作業よりも65%以上の好みが得られた。
プロジェクトページをご覧ください。 https://ryanndagreat.github.io/MotionV2V
関連論文リスト
- Point-to-Point: Sparse Motion Guidance for Controllable Video Editing [29.888408281118846]
本稿では,映像拡散モデルに先行するリッチな動きを生かして,最も重要な動きパターンをキャプチャする,新しい動き表現,アンカートークンを提案する。
実験では、アンカートークンはより制御可能でセマンティックに整合したビデオ編集をもたらし、編集や動きの忠実さの点で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-23T03:59:59Z) - Shape-for-Motion: Precise and Consistent Video Editing with 3D Proxy [48.72918598961146]
本稿では,精密で一貫したビデオ編集のための3Dプロキシを組み込んだ新しいフレームワークであるShape-for-Motionを紹介する。
我々のフレームワークは、ポーズ編集、回転、スケーリング、翻訳、テクスチャ修正、オブジェクト合成など、ビデオフレーム間の精密で物理的に一貫性のある操作をサポートしています。
論文 参考訳(メタデータ) (2025-06-27T17:59:01Z) - Edit as You See: Image-guided Video Editing via Masked Motion Modeling [18.89936405508778]
画像誘導映像編集拡散モデル(IVEDiff)を提案する。
IVEDiffは画像編集モデル上に構築されており、ビデオ編集の時間的一貫性を維持するための学習可能なモーションモジュールを備えている。
本手法は,高画質な編集対象を忠実に処理しながら,時間的にスムーズな編集映像を生成することができる。
論文 参考訳(メタデータ) (2025-01-08T07:52:12Z) - MotionFollower: Editing Video Motion via Lightweight Score-Guided Diffusion [94.66090422753126]
MotionFollowerは、ビデオモーション編集のための軽量なスコア誘導拡散モデルである。
優れたモーション編集性能を提供し、大きなカメラの動きとアクションのみをサポートする。
最新のモーション編集モデルであるMotionEditorと比較して、MotionFollowerはGPUメモリの約80%の削減を実現している。
論文 参考訳(メタデータ) (2024-05-30T17:57:30Z) - ReVideo: Remake a Video with Motion and Content Control [67.5923127902463]
本稿では,コンテンツと動画の両方の仕様により,特定の領域における正確な映像編集を可能にするビデオリメイク(VideoRe)を提案する。
VideoReは、コンテンツとモーションコントロールの結合とトレーニングの不均衡を含む新しいタスクに対処する。
また,本手法は,特定のトレーニングを変更することなく,その柔軟性と堅牢性を示すことなく,これらのアプリケーションをマルチエリア編集にシームレスに拡張することができる。
論文 参考訳(メタデータ) (2024-05-22T17:46:08Z) - MagicStick: Controllable Video Editing via Control Handle Transformations [49.29608051543133]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - SAVE: Protagonist Diversification with Structure Agnostic Video Editing [29.693364686494274]
従来の作品は通常、自明で一貫した形状でうまく機能し、元のものと大きく異なる体形を持つ難しいターゲットで容易に崩壊する。
動きのパーソナライズを単一音源映像から分離し,それに応じて動きの調整を行う。
我々はまた、新しい擬似光学フローを導入することにより、動き語を適切な動き関連領域に適応するように調整する。
論文 参考訳(メタデータ) (2023-12-05T05:13:20Z) - MotionEditor: Editing Video Motion via Content-Aware Diffusion [96.825431998349]
MotionEditorはビデオモーション編集のための拡散モデルである。
新たなコンテンツ対応モーションアダプタをControlNetに組み込んで、時間的モーション対応をキャプチャする。
論文 参考訳(メタデータ) (2023-11-30T18:59:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。