論文の概要: Deep Image Matting with Flexible Guidance Input
- arxiv url: http://arxiv.org/abs/2110.10898v1
- Date: Thu, 21 Oct 2021 04:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:33:02.383310
- Title: Deep Image Matting with Flexible Guidance Input
- Title(参考訳): フレキシブルガイダンス入力によるDeep Image Matting
- Authors: Hang Cheng, Shugong Xu, Xiufeng Jiang, Rongrong Wang
- Abstract要約: 本稿では,ユーザヒントとしてFlexible Guidance Input を用いるマッチング手法を提案する。
提案手法は,既存のトリマップベースおよびトリマップフリー手法と比較して,最先端の結果が得られる。
- 参考スコア(独自算出の注目度): 16.651948566049846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image matting is an important computer vision problem. Many existing matting
methods require a hand-made trimap to provide auxiliary information, which is
very expensive and limits the real world usage. Recently, some trimap-free
methods have been proposed, which completely get rid of any user input.
However, their performance lag far behind trimap-based methods due to the lack
of guidance information. In this paper, we propose a matting method that use
Flexible Guidance Input as user hint, which means our method can use trimap,
scribblemap or clickmap as guidance information or even work without any
guidance input. To achieve this, we propose Progressive Trimap Deformation(PTD)
scheme that gradually shrink the area of the foreground and background of the
trimap with the training step increases and finally become a scribblemap. To
make our network robust to any user scribble and click, we randomly sample
points on foreground and background and perform curve fitting. Moreover, we
propose Semantic Fusion Module(SFM) which utilize the Feature Pyramid
Enhancement Module(FPEM) and Joint Pyramid Upsampling(JPU) in matting task for
the first time. The experiments show that our method can achieve
state-of-the-art results comparing with existing trimap-based and trimap-free
methods.
- Abstract(参考訳): イメージマットングは重要なコンピュータビジョンの問題である。
多くの既存のマットリング手法は補助情報を提供するために手作りのトリマップを必要とするが、これは非常に高価で現実世界の使用を制限している。
近年,ユーザ入力を完全に排除するトリマップフリーな手法が提案されている。
しかしながら、そのパフォーマンスは、ガイダンス情報がないため、trimapベースのメソッドよりもはるかに遅れている。
本稿では,ユーザヒントとしてFlexible Guidance Inputを使用すれば,トリマップやスクリブルマップ,あるいはクリックマップをガイダンス情報として使用したり,あるいはガイダンス入力なしで作業を行うことが可能なマッチング手法を提案する。
これを実現するために,トレーニングステップでトライアングルの前景と背景の面積を徐々に縮小し,最終的にスクリブルマップとなるプログレッシブ・トリマップ変形(PTD)方式を提案する。
ユーザのスクリブルやクリックに対してネットワークを堅牢にするために,前景や背景の点をランダムにサンプリングし,カーブフィッティングを行う。
また,FPEM (Feature Pyramid Enhancement Module) とJPU (Joint Pyramid Upsampling) を交配作業に利用したSemantic Fusion Module (SFM) を提案する。
本手法は既存のtrimap-basedおよびtrimap-free法と比較して最先端の結果が得られることを示す。
関連論文リスト
- Learning Trimaps via Clicks for Image Matting [103.6578944248185]
Click2Trimapは,ユーザクリックの最小限の入力で高品質なトリマップとアルファ行列を予測できる対話型モデルである。
ユーザスタディでは、Click2Trimapは高品質なトリマップとマッティング予測を、1画像あたり平均5秒で達成している。
論文 参考訳(メタデータ) (2024-03-30T12:10:34Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - TMO: Textured Mesh Acquisition of Objects with a Mobile Device by using
Differentiable Rendering [54.35405028643051]
スマートフォン1台でテクスチャ化されたメッシュを野生で取得するパイプラインを新たに提案する。
提案手法ではまず,RGBD支援構造を動きから導入し,フィルタした深度マップを作成できる。
我々は,高品質なメッシュを実現するニューラル暗黙表面再構成法を採用する。
論文 参考訳(メタデータ) (2023-03-27T10:07:52Z) - PP-Matting: High-Accuracy Natural Image Matting [11.68134059283327]
PP-Mattingは、高精度な自然な画像マッチングを実現するトリマップのないアーキテクチャである。
本手法は,前景のきめ細かい詳細を抽出する高精細ディテールブランチ (HRDB) を適用する。
また,意味的セグメンテーションのサブタスクを採用した意味的文脈分岐(SCB)を提案する。
論文 参考訳(メタデータ) (2022-04-20T12:54:06Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - Human Perception Modeling for Automatic Natural Image Matting [2.179313476241343]
natural image mattingは、alpha matteを使って、フォアグラウンドオブジェクトを背景から正確に分離することを目的としている。
アノテーションを付加せずに直感的に設計したトリマップフリー2段階マッチング手法を提案する。
このマッティングアルゴリズムは,現在最先端の手法と,trimap-freeとtrimap-needの両方の面で競合する性能を持つ。
論文 参考訳(メタデータ) (2021-03-31T12:08:28Z) - Salient Image Matting [0.0]
本研究では,画像中の最も鮮やかな前景の画素あたりの不透明度値を推定するために,Salient Image Mattingという画像マッチングフレームワークを提案する。
我々のフレームワークは、広範囲のセマンティクスと健全なオブジェクトタイプを学ぶという課題を同時に扱う。
私たちのフレームワークは、他の自動メソッドと比較して、わずかな高価なマットデータのみを必要とします。
論文 参考訳(メタデータ) (2021-03-23T06:22:33Z) - Improved Image Matting via Real-time User Clicks and Uncertainty
Estimation [87.84632514927098]
本論文では,トリムアップフリーで,ユーザによるクリック操作だけであいまいさを解消できる深層画像マッチングフレームワークを提案する。
研磨が必要な部品を予測できる新しい不確実性推定モジュールと、以下の局所精製モジュールを紹介します。
その結果,既存の trimap-free メソッドよりも優れた性能を示し,ユーザの労力を最小限に抑え,最先端の trimap-based メソッドと比較できることがわかった。
論文 参考訳(メタデータ) (2020-12-15T14:32:36Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。