論文の概要: Background Matting: The World is Your Green Screen
- arxiv url: http://arxiv.org/abs/2004.00626v2
- Date: Fri, 10 Apr 2020 03:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:14:03.279442
- Title: Background Matting: The World is Your Green Screen
- Title(参考訳): 背景マットリング:世界はあなたのグリーンスクリーンです
- Authors: Soumyadip Sengupta, Vivek Jayaram, Brian Curless, Steve Seitz, and Ira
Kemelmacher-Shlizerman
- Abstract要約: 本研究では,手持ちカメラで日常の場面で写真や動画を撮影することで,人物の前景色とアルファ色のマットを作成する方法を提案する。
ほとんどの既存のマット方式では、グリーンスクリーンの背景や手動で作成したトリマップが必要であり、優れたマットを生成する。
トリマップフリーなアプローチでは、キャプチャ時に被写体を含まない背景の撮影をユーザに依頼します。このステップでは、少量の事前監視が必要になりますが、トリマップを作成するよりもはるかに時間がかかります。
- 参考スコア(独自算出の注目度): 23.513688724583798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for creating a matte -- the per-pixel foreground color
and alpha -- of a person by taking photos or videos in an everyday setting with
a handheld camera. Most existing matting methods require a green screen
background or a manually created trimap to produce a good matte. Automatic,
trimap-free methods are appearing, but are not of comparable quality. In our
trimap free approach, we ask the user to take an additional photo of the
background without the subject at the time of capture. This step requires a
small amount of foresight but is far less time-consuming than creating a
trimap. We train a deep network with an adversarial loss to predict the matte.
We first train a matting network with supervised loss on ground truth data with
synthetic composites. To bridge the domain gap to real imagery with no
labeling, we train another matting network guided by the first network and by a
discriminator that judges the quality of composites. We demonstrate results on
a wide variety of photos and videos and show significant improvement over the
state of the art.
- Abstract(参考訳): ハンドヘルドカメラを用いて日常的に写真やビデオを撮影することで、人物のマット(画素毎のフォアグラウンドカラーとアルファ)を作成する方法を提案する。
既存のマットングメソッドの多くは、良いマットを生成するために、グリーンスクリーンの背景や手動で作成したトリマップを必要とする。
自動でトリマップのないメソッドが現れるが、同等の品質ではない。
trimapフリーのアプローチでは、撮影時に被写体なしで背景の写真を撮影するようユーザに求めます。
このステップでは、ほんの少しのforesightが必要ですが、トリマップの作成よりもはるかに時間がかかります。
我々は、マットを予測するために敵の損失を伴うディープネットワークを訓練する。
まず,合成複合材料を用いた地盤真理データに教師付き損失を伴うマットリングネットワークを訓練する。
ラベリングなしでドメインギャップを実画像に橋渡しするために、第1のネットワークと複合物の品質を判断する判別器によって誘導される別のマットリングネットワークを訓練する。
さまざまな写真やビデオで結果を実証し,その状況に対して顕著な改善が見られた。
関連論文リスト
- Boosting General Trimap-free Matting in the Real-World Image [0.0]
我々は,textbfMulti-textbfFeature fusion-based textbfCoarse-to-fine Network textbf(MFC-Net)というネットワークを提案する。
提案手法は, 合成画像と実世界の画像の両方において有意に有効であり, 実世界のデータセットの性能は, 既存のマッティングフリー手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2024-05-28T07:37:44Z) - Adaptive Human Matting for Dynamic Videos [62.026375402656754]
Adaptive Matting for Dynamic VideosはAdaMと呼ばれ、背景と背景を同時に区別するフレームワークである。
この目的を達成するために、2つの相互接続ネットワーク設計が採用されている。
提案手法が最近導入したデータセットをベンチマークし,検討した結果,行列が新たなクラス内でのベスト・イン・クラス・ジェネリザビリティを実現することがわかった。
論文 参考訳(メタデータ) (2023-04-12T17:55:59Z) - PP-Matting: High-Accuracy Natural Image Matting [11.68134059283327]
PP-Mattingは、高精度な自然な画像マッチングを実現するトリマップのないアーキテクチャである。
本手法は,前景のきめ細かい詳細を抽出する高精細ディテールブランチ (HRDB) を適用する。
また,意味的セグメンテーションのサブタスクを採用した意味的文脈分岐(SCB)を提案する。
論文 参考訳(メタデータ) (2022-04-20T12:54:06Z) - Deep Automatic Natural Image Matting [82.56853587380168]
自動画像マッチング(AIM)とは、任意の自然画像からソフトフォアグラウンドをトリマップのような補助的な入力なしで推定することである。
本稿では,これらの画像の一般化されたトリマップを統一的な意味表現として予測できる,新しいエンドツーエンドマッチングネットワークを提案する。
我々のネットワークは、利用可能な合成マッチングデータセットをトレーニングし、既存の手法を客観的にも主観的にも優れています。
論文 参考訳(メタデータ) (2021-07-15T10:29:01Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Human Perception Modeling for Automatic Natural Image Matting [2.179313476241343]
natural image mattingは、alpha matteを使って、フォアグラウンドオブジェクトを背景から正確に分離することを目的としている。
アノテーションを付加せずに直感的に設計したトリマップフリー2段階マッチング手法を提案する。
このマッティングアルゴリズムは,現在最先端の手法と,trimap-freeとtrimap-needの両方の面で競合する性能を持つ。
論文 参考訳(メタデータ) (2021-03-31T12:08:28Z) - Salient Image Matting [0.0]
本研究では,画像中の最も鮮やかな前景の画素あたりの不透明度値を推定するために,Salient Image Mattingという画像マッチングフレームワークを提案する。
我々のフレームワークは、広範囲のセマンティクスと健全なオブジェクトタイプを学ぶという課題を同時に扱う。
私たちのフレームワークは、他の自動メソッドと比較して、わずかな高価なマットデータのみを必要とします。
論文 参考訳(メタデータ) (2021-03-23T06:22:33Z) - Improved Image Matting via Real-time User Clicks and Uncertainty
Estimation [87.84632514927098]
本論文では,トリムアップフリーで,ユーザによるクリック操作だけであいまいさを解消できる深層画像マッチングフレームワークを提案する。
研磨が必要な部品を予測できる新しい不確実性推定モジュールと、以下の局所精製モジュールを紹介します。
その結果,既存の trimap-free メソッドよりも優れた性能を示し,ユーザの労力を最小限に抑え,最先端の trimap-based メソッドと比較できることがわかった。
論文 参考訳(メタデータ) (2020-12-15T14:32:36Z) - Deep Image Compositing [93.75358242750752]
ユーザ入力なしで高品質の画像合成を自動生成する手法を提案する。
ラプラシアン・ピラミッド・ブレンディングにインスパイアされ、フォアグラウンドや背景画像からの情報を効果的に融合させるために、密結合型多ストリーム融合ネットワークが提案されている。
実験により,提案手法は高品質な合成物を自動生成し,定性的かつ定量的に既存手法より優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-11-04T06:12:24Z) - Self-Adaptively Learning to Demoire from Focused and Defocused Image
Pairs [97.67638106818613]
モアレアーティファクトはデジタル写真では一般的であり、高周波シーンコンテンツとカメラのカラーフィルタアレイとの干渉によるものである。
大規模反復で訓練された既存のディープラーニングに基づく復習手法は、様々な複雑なモアレパターンを扱う場合に限られる。
本稿では,高頻度画像の復調のための自己適応学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T23:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。