論文の概要: PD-GAN: Probabilistic Diverse GAN for Image Inpainting
- arxiv url: http://arxiv.org/abs/2105.02201v1
- Date: Wed, 5 May 2021 17:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:44:10.782641
- Title: PD-GAN: Probabilistic Diverse GAN for Image Inpainting
- Title(参考訳): PD-GAN:画像塗布のための確率的逆GAN
- Authors: Hongyu Liu and Ziyu Wan and Wei Huang and Yibing Song and Xintong Han
and Jing Liao
- Abstract要約: 任意の穴領域を持つ入力画像から、PD-GANは多様で視覚的に現実的なコンテンツで複数の描画結果を生成します。
我々のPD-GANは、ランダムノイズに基づいて画像を生成するバニラGAN上に構築されている。
CelebA-HQ、Places2、Paris Street Viewといったベンチマークデータセットの実験は、PD-GANが多種多様な視覚的イメージ復元に有効であることを示している。
- 参考スコア(独自算出の注目度): 44.83845369136719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose PD-GAN, a probabilistic diverse GAN for image inpainting. Given an
input image with arbitrary hole regions, PD-GAN produces multiple inpainting
results with diverse and visually realistic content. Our PD-GAN is built upon a
vanilla GAN which generates images based on random noise. During image
generation, we modulate deep features of input random noise from coarse-to-fine
by injecting an initially restored image and the hole regions in multiple
scales. We argue that during hole filling, the pixels near the hole boundary
should be more deterministic (i.e., with higher probability trusting the
context and initially restored image to create natural inpainting boundary),
while those pixels lie in the center of the hole should enjoy more degrees of
freedom (i.e., more likely to depend on the random noise for enhancing
diversity). To this end, we propose spatially probabilistic diversity
normalization (SPDNorm) inside the modulation to model the probability of
generating a pixel conditioned on the context information. SPDNorm dynamically
balances the realism and diversity inside the hole region, making the generated
content more diverse towards the hole center and resemble neighboring image
content more towards the hole boundary. Meanwhile, we propose a perceptual
diversity loss to further empower PD-GAN for diverse content generation.
Experiments on benchmark datasets including CelebA-HQ, Places2 and Paris Street
View indicate that PD-GAN is effective for diverse and visually realistic image
restoration.
- Abstract(参考訳): 画像塗布の確率的多彩なGANであるPD-GANを提案する。
任意の穴領域を持つ入力画像が与えられると、pd-ganは多様で視覚的なコンテンツを含む複数のインペインティング結果を生成する。
我々のPD-GANは、ランダムノイズに基づいて画像を生成するバニラGAN上に構築されている。
画像生成中、初期復元された画像とホール領域を複数スケールで注入することにより、入力ランダムノイズの深い特徴を粗度から細度まで変調する。
ホールフィリングの間、ホール境界近傍のピクセルはより決定論的(すなわち、コンテキストを信頼し、最初に復元された画像が自然の塗布境界を作る確率が高い)であり、一方、ホールの中心にあるピクセルはより自由度(つまり、多様性を高めるためにランダムノイズに依存する可能性が高い)を享受するべきである。
そこで本研究では,空間的確率的多様性正規化(SPDNorm)を提案し,文脈情報に基づく画素生成の確率をモデル化する。
SPDNormは、ホール領域内のリアリズムと多様性を動的にバランスさせ、生成されたコンテンツはホール中心に向かってより多様性を増し、近隣の画像コンテンツと穴の境界に向かって類似させる。
一方,多様なコンテンツ生成のためのPD-GANをさらに強化するために,知覚的多様性損失を提案する。
CelebA-HQ、Places2、Paris Street Viewといったベンチマークデータセットの実験は、PD-GANが多種多様な視覚的イメージ復元に有効であることを示している。
関連論文リスト
- Decoupled Data Augmentation for Improving Image Classification [37.50690945158849]
Decoupled Data Augmentation (De-DA)を導入する。
生成モデルを用いて、制御条件下での実際のCDPの修正を行い、セマンティック一貫性を保つ。
また、画像のCIPをクラス間変種に置き換え、多様なCDP-CIPの組み合わせを作成します。
論文 参考訳(メタデータ) (2024-10-29T06:27:09Z) - From Posterior Sampling to Meaningful Diversity in Image Restoration [27.67089588202306]
画像復元問題は、通常、各劣化した画像を無限に多くの有効な方法で復元できるという意味で、不明確である。
多くの研究は、自然画像の後部分布からランダムにサンプリングしようとすることで、多様な出力を生成する。
ここでは、この戦略は後部分布の重みのため、一般に限定的な実用的価値を持つ。
論文 参考訳(メタデータ) (2023-10-24T17:58:54Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z) - RoI Tanh-polar Transformer Network for Face Parsing in the Wild [50.8865921538953]
顔解析は、画像中のターゲット顔の顔成分のピクセルワイズラベルを予測することを目的としている。
既存のアプローチは通常、前処理中に計算されたバウンディングボックスに関して、入力画像からターゲット顔を取得する。
本稿では,画像全体を顔領域とコンテキストの固定比でTanh極表現に変換するRoI Tanh極変換を提案する。
第3に、Tanh極空間とTanh-Cartesian空間の両方に畳み込み層を含むハイブリッド残差表現学習ブロック、HybridBlockを提案する。
論文 参考訳(メタデータ) (2021-02-04T16:25:26Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Adversarial Generation of Continuous Images [31.92891885615843]
本稿では,INRに基づく画像デコーダ構築のための2つの新しいアーキテクチャ手法を提案する。
私たちは、最先端の連続画像GANを構築するためにそれらを使用します。
提案したINR-GANアーキテクチャは連続画像生成装置の性能を数倍改善する。
論文 参考訳(メタデータ) (2020-11-24T11:06:40Z) - DVG-Face: Dual Variational Generation for Heterogeneous Face Recognition [85.94331736287765]
我々は、HFRを二重生成問題として定式化し、新しいDual Variational Generation(DVG-Face)フレームワークを用いてそれに取り組む。
大規模可視データの豊富なアイデンティティ情報を結合分布に統合する。
同一の同一性を持つ多種多様な多種多様な画像は、ノイズから生成することができる。
論文 参考訳(メタデータ) (2020-09-20T09:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。