論文の概要: VidSplice: Towards Coherent Video Inpainting via Explicit Spaced Frame Guidance
- arxiv url: http://arxiv.org/abs/2510.21461v1
- Date: Fri, 24 Oct 2025 13:44:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.491825
- Title: VidSplice: Towards Coherent Video Inpainting via Explicit Spaced Frame Guidance
- Title(参考訳): VidSplice:Explicit Spaced Frame Guidanceによるコヒーレントなビデオインペインティングを目指す
- Authors: Ming Xie, Junqiu Yu, Qiaole Dong, Xiangyang Xue, Yanwei Fu,
- Abstract要約: VidSpliceは、テンポラリな手口でペンキを塗るプロセスをガイドする新しいフレームワークである。
VidSpliceは様々な映像のインパインティングシナリオで競争力を発揮することを示す。
- 参考スコア(独自算出の注目度): 57.57195766748601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent video inpainting methods often employ image-to-video (I2V) priors to model temporal consistency across masked frames. While effective in moderate cases, these methods struggle under severe content degradation and tend to overlook spatiotemporal stability, resulting in insufficient control over the latter parts of the video. To address these limitations, we decouple video inpainting into two sub-tasks: multi-frame consistent image inpainting and masked area motion propagation. We propose VidSplice, a novel framework that introduces spaced-frame priors to guide the inpainting process with spatiotemporal cues. To enhance spatial coherence, we design a CoSpliced Module to perform first-frame propagation strategy that diffuses the initial frame content into subsequent reference frames through a splicing mechanism. Additionally, we introduce a delicate context controller module that encodes coherent priors after frame duplication and injects the spliced video into the I2V generative backbone, effectively constraining content distortion during generation. Extensive evaluations demonstrate that VidSplice achieves competitive performance across diverse video inpainting scenarios. Moreover, its design significantly improves both foreground alignment and motion stability, outperforming existing approaches.
- Abstract(参考訳): 近年の映像塗装法では、マスクフレーム間の時間的一貫性をモデル化するために、I2V(Image-to-Video)プリミティブを用いることが多い。
中程度のケースでは有効であるが、これらの手法は厳しい内容劣化に苦慮し、時空間安定性を見落とし、ビデオの後半部分の制御が不十分になる傾向にある。
これらの制約に対処するため、ビデオのインペイントを2つのサブタスクに分割する。
VidSpliceは空間フレームの先行処理を導入し,時空間的手法による塗布プロセスのガイドを行う新しいフレームワークである。
空間コヒーレンスを高めるために,最初のフレームをスプライシング機構を通じて参照フレームに拡散させる第1フレームの伝搬戦略を行うCoSpliced Moduleを設計する。
さらに,フレーム重複後のコヒーレント先行を符号化し,スプリケートされた映像をI2V生成バックボーンに注入し,生成時のコンテンツ歪みを効果的に抑制する,繊細なコンテキスト制御モジュールを導入する。
VidSpliceの大規模な評価は、多様なビデオインパインティングシナリオ間での競争性能を実現することを示している。
さらに、その設計は前景アライメントと運動安定性の両方を著しく改善し、既存のアプローチよりも優れている。
関連論文リスト
- VideoCanvas: Unified Video Completion from Arbitrary Spatiotemporal Patches via In-Context Conditioning [38.89828994130979]
任意の場所に配置された任意のユーザ指定のパッチからビデオが生成され、ビデオキャンバスに描画されるような、任意の時間的ビデオ補完のタスクを紹介する。
この柔軟性は、単一のパラダイムの下で、ファーストフレームのイメージ・トゥ・ビデオ、塗り絵、拡張、結束など、既存のコントロール可能なビデオ生成タスクを統一する。
In-Context Conditioning(ICC)パラダイムを、新しいパラメータをゼロとしたこのきめ細かい制御タスクに適応する、新しいフレームワークであるVideoCanvasを開発した。
論文 参考訳(メタデータ) (2025-10-09T17:58:59Z) - OutDreamer: Video Outpainting with a Diffusion Transformer [37.512451098188635]
本稿では,DiTをベースとした映像出力フレームワークであるOutDreamerを紹介する。
マスク情報を動的に統合するマスク駆動型自己注意層を提案する。
長時間の画質向上のために、我々は、欠落したコンテンツを反復的に生成するクロスビデオクリップ精細機を採用している。
論文 参考訳(メタデータ) (2025-06-27T15:08:54Z) - Semantically Consistent Video Inpainting with Conditional Diffusion Models [16.42354856518832]
本稿では,条件付きビデオ拡散モデルを用いた問題解決フレームワークを提案する。
我々は,コンテキストにおける重要な長距離依存関係をキャプチャする塗装特化サンプリングスキームを導入する。
不完全フレーム中の既知の画素を条件付けするための新しい手法を考案する。
論文 参考訳(メタデータ) (2024-04-30T23:49:26Z) - MoVideo: Motion-Aware Video Generation with Diffusion Models [97.03352319694795]
本稿では,映像深度と光フローの2つの側面から動きを考慮に入れたモーションアウェア・ジェネレーション(MoVideo)フレームワークを提案する。
MoVideoは、テキスト・トゥ・ビデオと画像・トゥ・ビデオ生成の両方で最先端の結果を達成し、期待できる即時一貫性、フレームの整合性、視覚的品質を示す。
論文 参考訳(メタデータ) (2023-11-19T13:36:03Z) - Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation [93.18163456287164]
本稿では,動画に画像モデルを適用するための新しいテキスト誘導型動画翻訳フレームワークを提案する。
我々のフレームワークは,グローバルなスタイルと局所的なテクスチャの時間的一貫性を低コストで実現している。
論文 参考訳(メタデータ) (2023-06-13T17:52:23Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。