論文の概要: Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion
- arxiv url: http://arxiv.org/abs/2002.01281v1
- Date: Tue, 4 Feb 2020 13:49:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:59:37.233281
- Title: Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion
- Title(参考訳): ピクセルワイズ条件付き生成逆ネットワークによる画像合成と補完
- Authors: Cyprien Ruffino and Romain H\'erault and Eric Laloy and Gilles Gasso
- Abstract要約: GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.8807073304999355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have proven successful for
unsupervised image generation. Several works have extended GANs to image
inpainting by conditioning the generation with parts of the image to be
reconstructed. Despite their success, these methods have limitations in
settings where only a small subset of the image pixels is known beforehand. In
this paper we investigate the effectiveness of conditioning GANs when very few
pixel values are provided. We propose a modelling framework which results in
adding an explicit cost term to the GAN objective function to enforce
pixel-wise conditioning. We investigate the influence of this regularization
term on the quality of the generated images and the fulfillment of the given
pixel constraints. Using the recent PacGAN technique, we ensure that we keep
diversity in the generated samples. Conducted experiments on FashionMNIST show
that the regularization term effectively controls the trade-off between quality
of the generated images and the conditioning. Experimental evaluation on the
CIFAR-10 and CelebA datasets evidences that our method achieves accurate
results both visually and quantitatively in term of Fr\'echet Inception
Distance, while still enforcing the pixel conditioning. We also evaluate our
method on a texture image generation task using fully-convolutional networks.
As a final contribution, we apply the method to a classical geological
simulation application.
- Abstract(参考訳): generative adversarial networks (gans) は教師なし画像生成に成功している。
いくつかの作品では、画像の一部を再構成して生成を条件づけることで、ganを画像の塗装に拡張している。
その成功にもかかわらず、これらの手法は、画像ピクセルの小さなサブセットのみが事前に知られているような設定に制限がある。
本稿では,ごく少数の画素値が提供される場合の条件付きGANの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加して画素単位の条件を強制するモデリングフレームワークを提案する。
本稿では,この正規化項が生成画像の品質と与えられた画素制約を満たすことに与える影響について検討する。
最近のPacGAN技術を用いて、我々は生成したサンプルの多様性を維持する。
FashionMNISTにおける実験により、正規化項は生成画像の品質と条件付けとの間のトレードオフを効果的に制御することを示した。
cifar-10 と celeba データセットの実験的評価により, 画素条件を強制しながら, fr\'echet インセプション距離の観点で, 視覚的, 定量的に精度の高い結果が得られることが示された。
また,完全畳み込みネットワークを用いたテクスチャ画像生成タスクの評価を行った。
最後の貢献として、この手法を古典的な地質シミュレーション応用に適用する。
関連論文リスト
- Image Deblurring using GAN [0.0]
本研究は,GAN(Generative Adversarial Network)の画像処理への応用に焦点を当てた。
プロジェクトはGANモデルのインフローを定義し、GoPROデータセットでトレーニングする。
ネットワークは画像のシャープなピクセルを取得でき、平均29.3ピーク信号対雑音比(PSNR)と0.72構造類似度評価(SSIM)を実現している。
論文 参考訳(メタデータ) (2023-12-15T02:43:30Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Image Inpainting via Tractable Steering of Diffusion Models [54.13818673257381]
本稿では,トラクタブル確率モデル(TPM)の制約後部を正確に,かつ効率的に計算する能力を活用することを提案する。
具体的には、確率回路(PC)と呼ばれる表現型TPMのクラスを採用する。
提案手法は, 画像の全体的な品質とセマンティックコヒーレンスを, 計算オーバーヘッドを10%加えるだけで一貫的に改善できることを示す。
論文 参考訳(メタデータ) (2023-11-28T21:14:02Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Automatic Correction of Internal Units in Generative Neural Networks [15.67941936262584]
GAN(Generative Adversarial Networks)は,合成画像生成において良好な性能を示す。
人工物として知られる、欠陥のある視覚パターンを持つ多数の生成画像が存在する。
本研究では,様々な種類のアーティファクト画像を生成する内部ユニットを自動的に識別する手法を考案する。
論文 参考訳(メタデータ) (2021-04-13T11:46:45Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - LT-GAN: Self-Supervised GAN with Latent Transformation Detection [10.405721171353195]
画像の生成品質と多様性を改善するための自己教師付きアプローチ(LT-GAN)を提案する。
我々は,提案するLT-GANが,他の最先端のトレーニング技術と効果的に組み合わせて,付加的なメリットを享受できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-19T22:09:45Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - Progressively Unfreezing Perceptual GAN [28.330940021951438]
画像生成にはGAN(Generative Adversarial Network)が広く用いられているが、生成した画像はテクスチャの詳細が欠如している。
本稿では,テクスチャの細かい画像を生成するための一般的なフレームワークであるProgressively Unfreezing Perceptual GAN(PUPGAN)を提案する。
論文 参考訳(メタデータ) (2020-06-18T03:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。