論文の概要: Error Compensation Framework for Flow-Guided Video Inpainting
- arxiv url: http://arxiv.org/abs/2207.10391v1
- Date: Thu, 21 Jul 2022 10:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:32:34.527681
- Title: Error Compensation Framework for Flow-Guided Video Inpainting
- Title(参考訳): Flow-Guided Video Inpaintingのための誤差補償フレームワーク
- Authors: Jaeyeon Kang, Seoung Wug Oh, and Seon Joo Kim
- Abstract要約: フロー誘導型ビデオインペインティング(ECFVI)における誤り補償フレームワークを提案する。
提案手法は,映像の時間的一貫性と視覚的品質を大幅に向上させる。
- 参考スコア(独自算出の注目度): 36.626793485786095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The key to video inpainting is to use correlation information from as many
reference frames as possible. Existing flow-based propagation methods split the
video synthesis process into multiple steps: flow completion -> pixel
propagation -> synthesis. However, there is a significant drawback that the
errors in each step continue to accumulate and amplify in the next step. To
this end, we propose an Error Compensation Framework for Flow-guided Video
Inpainting (ECFVI), which takes advantage of the flow-based method and offsets
its weaknesses. We address the weakness with the newly designed flow completion
module and the error compensation network that exploits the error guidance map.
Our approach greatly improves the temporal consistency and the visual quality
of the completed videos. Experimental results show the superior performance of
our proposed method with the speed up of x6, compared to the state-of-the-art
methods. In addition, we present a new benchmark dataset for evaluation by
supplementing the weaknesses of existing test datasets.
- Abstract(参考訳): ビデオインペインティングの鍵は、可能な限り多くの参照フレームからの相関情報を使用することである。
既存のフローベース伝搬法では, 映像合成過程を複数のステップに分割した: フロー補完 -> 画素伝搬 -> 合成。
しかし、各ステップのエラーが次のステップで蓄積され、増幅され続けるという大きな欠点があります。
この目的のために,フローベース手法を生かし,その弱点を相殺するError Compensation Framework for Flow-Guided Video Inpainting (ECFVI)を提案する。
我々は、新たに設計されたフロー補完モジュールとエラー誘導マップを利用するエラー補償ネットワークの弱点に対処する。
提案手法は,映像の時間的一貫性と視覚的品質を大幅に向上させる。
実験の結果,提案手法は最先端手法と比較して,x6の高速化で優れた性能を示した。
さらに,既存のテストデータセットの弱点を補うことで,評価のための新しいベンチマークデータセットを提案する。
関連論文リスト
- Perception-Oriented Video Frame Interpolation via Asymmetric Blending [20.0024308216849]
ビデオフレーム補間(VFI)の従来の手法は、特にぼやけやゴースト効果の顕在化といった問題に直面している。
本稿では,これらの課題を軽減するためにPerVFI(Perception-oriented Video Frame Interpolation)を提案する。
実験により,PerVFIの優位性が検証され,既存の手法に比べて知覚品質が有意に向上した。
論文 参考訳(メタデータ) (2024-04-10T02:40:17Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Flow-Guided Diffusion for Video Inpainting [15.478104117672803]
ビデオのインペイントは、大きな動きや低照度条件のような複雑なシナリオによって挑戦されてきた。
新たな拡散モデルを含む現在の手法は、品質と効率の限界に直面している。
本稿では、時間的一貫性と塗装品質を大幅に向上させる新しい手法であるFGDVI(Flow-Guided Diffusion Model for Video Inpainting)を提案する。
論文 参考訳(メタデータ) (2023-11-26T17:48:48Z) - Flow Guidance Deformable Compensation Network for Video Frame
Interpolation [33.106776459443275]
既存の動きに基づく手法の欠点を克服するため,フローガイダンス変形補償ネットワーク(FGDCN)を提案する。
FGDCNは、フレームサンプリングプロセスをフローステップと変形ステップの2つのステップに分解する。
実験結果から,提案アルゴリズムはパラメータが少ない各種データセットに対して優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-11-22T09:35:14Z) - Towards An End-to-End Framework for Flow-Guided Video Inpainting [68.71844500391023]
フローガイド型ビデオインペインティングのためのエンドツーエンドフレームワーク(E$2$FGVI)を提案する。
提案手法は定性的かつ定量的に最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-06T08:24:47Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z) - Flow-edge Guided Video Completion [66.49077223104533]
従来のフローコンプリート法は、しばしば運動境界のシャープさを維持することができない。
提案手法は,まず動きエッジを抽出し,その後,鋭いエッジで平滑な流れ完了を導出する。
論文 参考訳(メタデータ) (2020-09-03T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。