論文の概要: Adaptive Background Matting Using Background Matching
- arxiv url: http://arxiv.org/abs/2203.05193v2
- Date: Mon, 14 Mar 2022 07:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 11:37:41.524674
- Title: Adaptive Background Matting Using Background Matching
- Title(参考訳): 背景マッチングを用いた適応型背景マッティング
- Authors: Jinlin Liu
- Abstract要約: グリーンスクリーンのマット方式は物理機器に依存している。
バックグラウンドベースのメソッドは、事前にキャプチャされた静的なバックグラウンドを必要とする。
現実の応用において安定かつ柔軟であるためには,適応的背景マッチング法を提案する。
- 参考スコア(独自算出の注目度): 2.240876415437428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the difficulty of solving the matting problem, lots of methods use
some kinds of assistance to acquire high quality alpha matte. Green screen
matting methods rely on physical equipment. Trimap-based methods take manual
interactions as external input. Background-based methods require a
pre-captured, static background. The methods are not flexible and convenient
enough to use widely. Trimap-free methods are flexible but not stable in
complicated video applications. To be stable and flexible in real applications,
we propose an adaptive background matting method. The user first captures their
videos freely, moving the cameras. Then the user captures the background video
afterwards, roughly covering the previous captured regions. We use dynamic
background video instead of static background for accurate matting. The
proposed method is convenient to use in any scenes as the static camera and
background is no more the limitation. To achieve this goal, we use background
matching network to find the best-matched background frame by frame from
dynamic backgrounds. Then, robust semantic estimation network is used to
estimate the coarse alpha matte. Finally, we crop and zoom the target region
according to the coarse alpha matte, and estimate the final accurate alpha
matte. In experiments, the proposed method is able to perform comparably
against the state-of-the-art matting methods.
- Abstract(参考訳): 畳み込み問題を解くのが難しいため、高品質なアルファマットを得るのにある種の支援を用いる方法が数多く存在する。
グリーンスクリーンのマットリングは物理機器に依存する。
トリマップベースの手法は、手動インタラクションを外部入力として扱う。
バックグラウンドベースのメソッドには、キャプチャ済みの静的なバックグラウンドが必要です。
この方法は柔軟性がなく、広く使えるほど便利ではない。
trimap-freeメソッドは柔軟だが、複雑なビデオアプリケーションでは安定していない。
実アプリケーションで安定かつ柔軟となるために,適応的背景マッチング法を提案する。
ユーザーはまずビデオを自由に撮影し、カメラを動かす。
その後、ユーザはバックグラウンドビデオをキャプチャし、約1つの領域をカバーした。
我々は静的背景ではなく動的背景映像を用いて正確なマッチングを行う。
静的カメラと背景がもはや制限にならないため,提案手法は任意のシーンで使用するのに便利である。
この目的を達成するために,動的背景から最適な背景フレームを見つけるために,背景マッチングネットワークを用いる。
次に、粗いアルファマットを推定するためにロバストな意味推定ネットワークを用いる。
最後に、粗いアルファマットに従って目標領域を収穫・拡大し、最終的な正確なアルファマットを推定する。
実験において,提案手法は最先端のマットング法に対して比較可能となる。
関連論文リスト
- DART: Depth-Enhanced Accurate and Real-Time Background Matting [11.78381754863757]
静的な背景を持つマッティングは、しばしばバックグラウンド・マッティング(BGM)と呼ばれ、コンピュータビジョンコミュニティ内で大きな注目を集めている。
我々は,RGB-Dカメラによって提供される豊富な深度情報を活用し,リアルタイムの背景マッチング性能を向上させる。
論文 参考訳(メタデータ) (2024-02-24T14:10:17Z) - DiffusionMat: Alpha Matting as Sequential Refinement Learning [87.76572845943929]
DiffusionMatは、粗いアルファマットから洗練されたアルファマットへの移行に拡散モデルを利用する画像マッチングフレームワークである。
補正モジュールは、各復調ステップで出力を調整し、最終的な結果が入力画像の構造と一致していることを保証する。
その結果,DiffusionMatは既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-11-22T17:16:44Z) - Training-Free Neural Matte Extraction for Visual Effects [4.91173926165739]
アルファマットはビデオ会議や映画、テレビ、ソーシャルメディアで広く使われている。
マット抽出問題に対する深層学習のアプローチは、一貫した主題のため、ビデオ会議に適している。
本稿では,視覚効果生成の仮定を特に対象とする,トレーニング不要な高品質なニューラルネットワーク抽出手法を提案する。
論文 参考訳(メタデータ) (2023-06-29T22:08:12Z) - Adaptive Human Matting for Dynamic Videos [62.026375402656754]
Adaptive Matting for Dynamic VideosはAdaMと呼ばれ、背景と背景を同時に区別するフレームワークである。
この目的を達成するために、2つの相互接続ネットワーク設計が採用されている。
提案手法が最近導入したデータセットをベンチマークし,検討した結果,行列が新たなクラス内でのベスト・イン・クラス・ジェネリザビリティを実現することがわかった。
論文 参考訳(メタデータ) (2023-04-12T17:55:59Z) - PP-Matting: High-Accuracy Natural Image Matting [11.68134059283327]
PP-Mattingは、高精度な自然な画像マッチングを実現するトリマップのないアーキテクチャである。
本手法は,前景のきめ細かい詳細を抽出する高精細ディテールブランチ (HRDB) を適用する。
また,意味的セグメンテーションのサブタスクを採用した意味的文脈分岐(SCB)を提案する。
論文 参考訳(メタデータ) (2022-04-20T12:54:06Z) - Correcting Face Distortion in Wide-Angle Videos [85.88898349347149]
これらの歪みを補正するビデオワープアルゴリズムを提案する。
私たちのキーとなるアイデアは、顔領域に局所的に立体投影を適用することです。
性能評価のために,焦点距離の広い広角ビデオデータセットを開発した。
論文 参考訳(メタデータ) (2021-11-18T21:28:17Z) - Saliency detection with moving camera via background model completion [0.5076419064097734]
本稿では,SDBMC(Saliency Detection via background model completion)という新しいフレームワークを提案する。
バックグラウンドモデラーとディープラーニングバックグラウンド/地上セグメンテーションネットワークから構成される。
バックグラウンド/地上セグメンタを採用するが、特定のビデオデータセットで事前訓練されているため、見当たらないビデオの塩分濃度も検出できる。
論文 参考訳(メタデータ) (2021-10-30T11:17:58Z) - Motion-aware Self-supervised Video Representation Learning via
Foreground-background Merging [19.311818681787845]
我々は、選択したビデオの前景領域を背景に構成するフォアグラウンド・バックグラウンド・マージング(FAME)を提案する。
FAMEは、様々なバックボーンを用いて、異なる下流タスクのパフォーマンスを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-09-30T13:45:26Z) - Attention-guided Temporal Coherent Video Object Matting [78.82835351423383]
本稿では,時間的コヒーレントなマッチング結果が得られる深層学習に基づくオブジェクトマッチング手法を提案する。
中心となるコンポーネントは、画像マッチングネットワークの強度を最大化するアテンションベースの時間アグリゲーションモジュールである。
本稿では,最先端のビデオオブジェクトセグメンテーションネットワークを微調整することで,トリマップ生成問題を効果的に解決する方法を示す。
論文 参考訳(メタデータ) (2021-05-24T17:34:57Z) - Neural Re-rendering for Full-frame Video Stabilization [144.9918806873405]
まず,高密度ワープ場を推定し,フルフレーム映像安定化のためのアルゴリズムを提案する。
フルフレーム安定化フレームは、隣接するフレームから歪んだコンテンツを融合することで合成することができる。
論文 参考訳(メタデータ) (2021-02-11T18:59:45Z) - Removing the Background by Adding the Background: Towards Background
Robust Self-supervised Video Representation Learning [105.42550534895828]
自己教師付き学習は、ディープニューラルネットワークの映像表現能力を改善する大きな可能性を示している。
現在の手法のいくつかは背景から騙される傾向があり、つまり、予測は動きではなく動画の背景に大きく依存する。
背景を追加することで背景の影響を取り除くことを提案する。つまり、ビデオの場合、静的なフレームをランダムに選択し、他のフレームに付加して、邪魔なビデオサンプルを構築する。
そして、モデルを強制的に、気を散らすビデオの特徴とオリジナルビデオの特徴を近づけることで、モデルが明示的に制限されるようにします。
論文 参考訳(メタデータ) (2020-09-12T11:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。