論文の概要: Adversarially-Guided Portrait Matting
- arxiv url: http://arxiv.org/abs/2305.02981v2
- Date: Tue, 23 May 2023 11:50:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 23:47:13.779855
- Title: Adversarially-Guided Portrait Matting
- Title(参考訳): 対訳 ポートレート・マッティング
- Authors: Sergej Chicherin, Karen Efremyan
- Abstract要約: 限られたデータソースを用いてアルファ行列を生成する方法を提案する。
ポートレートデータセット上で,新しいトランスフォーマーモデル(StyleMatte)を事前訓練する。
このモデルを用いて、StyleMatteGAN(StyleMatteGAN)ベースのネットワークのための画像マスクペアを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a method for generating alpha mattes using a limited data source.
We pretrain a novel transformerbased model (StyleMatte) on portrait datasets.
We utilize this model to provide image-mask pairs for the StyleGAN3-based
network (StyleMatteGAN). This network is trained unsupervisedly and generates
previously unseen imagemask training pairs that are fed back to StyleMatte. We
demonstrate that the performance of the matte pulling network improves during
this cycle and obtains top results on the human portraits and state-of-the-art
metrics on animals dataset. Furthermore, StyleMatteGAN provides
high-resolution, privacy-preserving portraits with alpha mattes, making it
suitable for various image composition tasks. Our code is available at
https://github.com/chroneus/stylematte
- Abstract(参考訳): 限られたデータソースを用いてアルファ行列を生成する方法を提案する。
ポートレートデータセット上に新しいトランスフォーマーモデル(StyleMatte)を事前訓練する。
このモデルを用いて、StyleMatteGAN(StyleMatteGAN)ベースのネットワークに対して、画像マスクペアを提供する。
このネットワークは教師なしでトレーニングされ、以前は目に見えないイメージマスクトレーニングペアを生成し、StyleMatteに返される。
このサイクルでマット引き抜きネットワークの性能が向上し、ヒトの肖像画や動物データセットの最先端の指標の上位結果が得られることを実証する。
さらにstylematteganは、アルファマットで高解像度でプライバシーを保ったポートレートを提供し、様々な画像合成タスクに適している。
私たちのコードはhttps://github.com/chroneus/stylematteで利用可能です。
関連論文リスト
- Towards Natural Image Matting in the Wild via Real-Scenario Prior [69.96414467916863]
我々は,COCOデータセット,すなわちCOCO-Mattingに基づく新しいマッチングデータセットを提案する。
構築されたCOCO-Mattingは、複雑な自然シナリオにおける38,251人のインスタンスレベルのアルファマットの広範なコレクションを含む。
ネットワークアーキテクチャにおいて、提案する特徴整合変換器は、きめ細かいエッジと透過性を抽出することを学ぶ。
提案したマットアライメントデコーダは、マット固有のオブジェクトを分割し、粗いマスクを高精度なマットに変換することを目的としている。
論文 参考訳(メタデータ) (2024-10-09T06:43:19Z) - DiffusionMat: Alpha Matting as Sequential Refinement Learning [87.76572845943929]
DiffusionMatは、粗いアルファマットから洗練されたアルファマットへの移行に拡散モデルを利用する画像マッチングフレームワークである。
補正モジュールは、各復調ステップで出力を調整し、最終的な結果が入力画像の構造と一致していることを保証する。
その結果,DiffusionMatは既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-11-22T17:16:44Z) - Matte Anything: Interactive Natural Image Matting with Segment Anything
Models [35.105593013654]
Matte Anything (MatAny) は、高品質のアルファマットを生成することができるインタラクティブな自然な画像マッチングモデルである。
我々は、視覚基盤モデルを活用し、自然な画像マッチングの性能を向上させる。
MatAny は以前の画像マッチング法と比較して MSE を58.3%改善し、SAD を40.6%改善した。
論文 参考訳(メタデータ) (2023-06-07T03:31:39Z) - Self-supervised Matting-specific Portrait Enhancement and Generation [40.444011984347505]
我々はStyleGANを使ってGANモデルの潜伏空間を探索する。
我々は、4つの調整された損失の下で、潜伏空間における多スケール潜伏ベクトルを最適化する。
提案手法は,任意のマッチングモデルに対して,実際のポートレート画像を洗練することができることを示す。
論文 参考訳(メタデータ) (2022-08-13T09:00:02Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Deep Automatic Natural Image Matting [82.56853587380168]
自動画像マッチング(AIM)とは、任意の自然画像からソフトフォアグラウンドをトリマップのような補助的な入力なしで推定することである。
本稿では,これらの画像の一般化されたトリマップを統一的な意味表現として予測できる,新しいエンドツーエンドマッチングネットワークを提案する。
我々のネットワークは、利用可能な合成マッチングデータセットをトレーニングし、既存の手法を客観的にも主観的にも優れています。
論文 参考訳(メタデータ) (2021-07-15T10:29:01Z) - Alpha Matte Generation from Single Input for Portrait Matting [79.62140902232628]
目標は、各画素が前景の被写体に与える影響を識別するアルファマットを予測することである。
従来のアプローチや既存の作業の多くは、アルファマットの予測にトリマップ、背景画像などの追加入力を使用していた。
我々は、GAN(Generative Adversarial Nets)を用いたポートレート・マッティングを行うための追加の入力不要アプローチを導入する。
論文 参考訳(メタデータ) (2021-06-06T18:53:42Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - $F$, $B$, Alpha Matting [0.0]
我々は,前景や背景の色を予測するために,アルファ・マッティング・ネットワークの低コストな修正を提案する。
提案手法は, アルファマットと合成色質のためのAdobe composition-1kデータセット上で, アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2020-03-17T13:27:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。