論文の概要: FurryGAN: High Quality Foreground-aware Image Synthesis
- arxiv url: http://arxiv.org/abs/2208.10422v1
- Date: Mon, 22 Aug 2022 16:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:40:45.319752
- Title: FurryGAN: High Quality Foreground-aware Image Synthesis
- Title(参考訳): FurryGAN: 高品質フォアグラウンド対応画像合成
- Authors: Jeongmin Bae, Mingi Kwon, Youngjung Uh
- Abstract要約: フォアグラウンド対応画像合成は、フォアグラウンドマスクと同様に画像を生成することを目的としている。
筆者らはFurryGANに,1)前景画像と複合画像の両方を現実的なものにすること,2)粗いマスクと細いマスクの組み合わせとしてマスクを設計すること,3)識別器の補助マスク予測器でジェネレータを誘導すること,の3つのキーコンポーネントを提示する。
本手法は, ヘア, 毛皮, ウイスキーを完全に教師なしで覆い, 極めて詳細なアルファマスクを用いて, リアルな画像を生成する。
- 参考スコア(独自算出の注目度): 7.723983475351976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foreground-aware image synthesis aims to generate images as well as their
foreground masks. A common approach is to formulate an image as an masked
blending of a foreground image and a background image. It is a challenging
problem because it is prone to reach the trivial solution where either image
overwhelms the other, i.e., the masks become completely full or empty, and the
foreground and background are not meaningfully separated. We present FurryGAN
with three key components: 1) imposing both the foreground image and the
composite image to be realistic, 2) designing a mask as a combination of coarse
and fine masks, and 3) guiding the generator by an auxiliary mask predictor in
the discriminator. Our method produces realistic images with remarkably
detailed alpha masks which cover hair, fur, and whiskers in a fully
unsupervised manner.
- Abstract(参考訳): 前景認識画像合成は、前景マスクと同様に画像を生成することを目的としている。
一般的なアプローチは、前景画像と背景画像とのマスクブレンドとしてイメージを定式化することである。
どちらかのイメージが他方を圧倒し、つまり、マスクが完全に満ちたり空になったり、前景と背景が有意義に分離されないような、自明な解決策にたどり着くのは難しい問題である。
FurryGANには3つの重要な要素がある。
1)前景画像と複合画像の両方を現実的とする。
2)粗いマスクと細かいマスクの組み合わせとしてマスクを設計し、
3)判別器の補助マスク予測器で発電機を誘導する。
本手法では, 毛髪, 毛皮, ウイスカーをまったく教師なしで覆う, 精細なアルファマスクを施した写実的画像を生成する。
関連論文リスト
- Lazy Diffusion Transformer for Interactive Image Editing [79.75128130739598]
部分的な画像更新を効率的に生成する新しい拡散変換器であるLazyDiffusionを導入する。
提案手法は,空白キャンバスや画像から,ユーザが局所的な画像修正のシーケンスを指定するインタラクティブな画像編集アプリケーションを対象としている。
論文 参考訳(メタデータ) (2024-04-18T17:59:27Z) - PaintSeg: Training-free Segmentation via Painting [50.17936803209125]
PaintSegは、トレーニングなしでオブジェクトをセグメンテーションするための新しい教師なしのメソッドである。
前者は前景をマスキングして背景を埋め、後者は前景の欠落部分を回復しながら背景をマスキングする。
実験の結果、PaintSegは、粗いマスクプロンプト、ボックスプロンプト、ポイントプロンプトセグメンテーションタスクにおいて、既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-30T20:43:42Z) - MaskSketch: Unpaired Structure-guided Masked Image Generation [56.88038469743742]
MaskSketchは、サンプリング中の余分な条件信号としてガイドスケッチを使用して生成結果の空間的条件付けを可能にする画像生成方法である。
マスク付き生成変換器の中間自己アテンションマップが入力画像の重要な構造情報を符号化していることを示す。
以上の結果から,MaskSketchは誘導構造に対する高画像リアリズムと忠実性を実現する。
論文 参考訳(メタデータ) (2023-02-10T20:27:02Z) - Masked Face Inpainting Through Residual Attention UNet [0.7868449549351486]
本稿では,残像UNetを用いたブラインドマスク面塗装法を提案する。
残差ブロックは次の層に情報を供給し、2ホップ離れた層に直接入力し、消滅する勾配問題を解決する。
公開されているCelebAデータセットの実験は、提案モデルの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-09-19T08:49:53Z) - Semantic-guided Multi-Mask Image Harmonization [10.27974860479791]
セマンティック誘導型マルチマスク画像調和タスクを提案する。
本研究では,一連のオペレーターマスクを予測することにより,不調和な画像を編集する新しい方法を提案する。
論文 参考訳(メタデータ) (2022-07-24T11:48:49Z) - Layered Depth Refinement with Mask Guidance [61.10654666344419]
汎用マスクを用いてSIDEモデルの深度予測を洗練させるマスク誘導深度改善の新しい問題を定式化する。
本フレームワークは,奥行きマップをマスクと逆マスクで表される2つの別々の層に分解し,層状改質・塗装・塗装を行う。
本手法は,内面境界領域と外面境界領域の深度を正確に補正し,異なる種類のマスクや初期深度予測に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-06-07T06:42:44Z) - A Deep Learning Framework to Reconstruct Face under Mask [0.0]
本研究の目的は、マスク画像からマスク領域を抽出し、検出された領域を再構築することである。
この問題は、(i)マスクの裏側に隠された画像の性別を決定することが困難であるため、ネットワークが混乱し、女性として、あるいはその逆で男性の顔が復元されるため複雑である。
この複雑な課題を解決するために,課題をランドマーク検出,ターゲットマスク領域の物体検出,アドレスマスク領域の塗装の3段階に分けた。
論文 参考訳(メタデータ) (2022-03-23T15:23:24Z) - RePaint: Inpainting using Denoising Diffusion Probabilistic Models [161.74792336127345]
Free-form Inpaintingは任意のバイナリマスクで指定された領域のイメージに新しいコンテンツを追加するタスクである。
RePaint: A Denoising Probabilistic Model (DDPM) を用いた塗装手法を提案する。
本手法は,標準的なマスクと極端マスクを用いて,顔と汎用画像の塗装の両面で検証する。
論文 参考訳(メタデータ) (2022-01-24T18:40:15Z) - Segmentation-Reconstruction-Guided Facial Image De-occlusion [48.952656891182826]
隠蔽は野生の顔画像で非常に一般的であり、顔関連タスクの劣化パフォーマンスに繋がる。
本稿では,顔分割と3次元顔再構成に基づく新しい顔除去モデルを提案する。
論文 参考訳(メタデータ) (2021-12-15T10:40:08Z) - A 3D model-based approach for fitting masks to faces in the wild [9.958467179573235]
マスクされた顔に対する様々なポーズの顔画像を増やすために,WearMask3Dと呼ばれる3次元モデルに基づくアプローチを提案する。
提案手法は,まず入力画像に3D形態素モデルを適用し,マスク表面を顔モデルにオーバーレイし,各マスクテクスチャをワープし,最後に3Dマスクを2Dに投影することで進行する。
実験の結果,wearmask3dはよりリアルなマスク画像を生成することを示し,これらの画像を用いたトレーニングによりマスク顔の認識精度が向上した。
論文 参考訳(メタデータ) (2021-03-01T06:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。