論文の概要: A U-Net Based Discriminator for Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2002.12655v2
- Date: Fri, 19 Mar 2021 23:22:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:04:24.004246
- Title: A U-Net Based Discriminator for Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークのためのU-Netに基づく判別器
- Authors: Edgar Sch\"onfeld, Bernt Schiele, Anna Khoreva
- Abstract要約: GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
- 参考スコア(独自算出の注目度): 86.67102929147592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Among the major remaining challenges for generative adversarial networks
(GANs) is the capacity to synthesize globally and locally coherent images with
object shapes and textures indistinguishable from real images. To target this
issue we propose an alternative U-Net based discriminator architecture,
borrowing the insights from the segmentation literature. The proposed U-Net
based architecture allows to provide detailed per-pixel feedback to the
generator while maintaining the global coherence of synthesized images, by
providing the global image feedback as well. Empowered by the per-pixel
response of the discriminator, we further propose a per-pixel consistency
regularization technique based on the CutMix data augmentation, encouraging the
U-Net discriminator to focus more on semantic and structural changes between
real and fake images. This improves the U-Net discriminator training, further
enhancing the quality of generated samples. The novel discriminator improves
over the state of the art in terms of the standard distribution and image
quality metrics, enabling the generator to synthesize images with varying
structure, appearance and levels of detail, maintaining global and local
realism. Compared to the BigGAN baseline, we achieve an average improvement of
2.7 FID points across FFHQ, CelebA, and the newly introduced COCO-Animals
dataset. The code is available at https://github.com/boschresearch/unetgan.
- Abstract(参考訳): gans(generative adversarial network)の主な課題は、グローバルかつ局所的なコヒーレントな画像を実際の画像と区別できないオブジェクト形状とテクスチャで合成する能力である。
この問題をターゲットに,セグメンテーション文献から得た知見を借用し,u-net ベースの判別器アーキテクチャを提案する。
提案したU-Netベースのアーキテクチャでは,画像のグローバルなコヒーレンスを維持しつつ,画素単位の詳細なフィードバックをジェネレータに提供することができる。
さらに,CutMixデータ拡張に基づく画素ごとの整合性正規化手法を提案し,実画像と偽画像間の意味的・構造的変化に着目したU-Net判別器を提案する。
これにより、U-Net判別器のトレーニングが向上し、生成されたサンプルの品質がさらに向上する。
斬新な判別器は、標準分布と画像品質の指標の観点から、技術の現状を改良し、生成元が様々な構造、外観、詳細レベルで画像を合成し、グローバルおよびローカルなリアリズムを維持する。
BigGANベースラインと比較して、FFHQ、CelebA、新たに導入されたCOCO-Animalsデータセット全体で平均2.7 FIDポイントの改善を実現しています。
コードはhttps://github.com/boschresearch/unetganで入手できる。
関連論文リスト
- United Domain Cognition Network for Salient Object Detection in Optical Remote Sensing Images [21.76732661032257]
周波数領域と空間領域のグローバルローカル情報を共同で探索する新しい統一ドメイン認知ネットワーク(UDCNet)を提案する。
実験結果から提案したUDCNetが24種類の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-11T04:12:27Z) - Spectral Normalization and Dual Contrastive Regularization for
Image-to-Image Translation [9.029227024451506]
二重コントラスト正規化とスペクトル正規化に基づく新しい未ペアI2I翻訳フレームワークを提案する。
SN-DCRの有効性を評価するための総合的な実験を行い、本手法が複数のタスクにおいてSOTAを実現することを実証した。
論文 参考訳(メタデータ) (2023-04-22T05:22:24Z) - Efficient and Explicit Modelling of Image Hierarchies for Image
Restoration [120.35246456398738]
本研究では,画像復元のためのグローバル,地域,地域領域における画像階層を効率的に,かつ明示的にモデル化する機構を提案する。
そこで本研究では, 空間と時間的複雑性のバランスが良く, 固定されたストライプ自己注意を提案する。
そこで我々はGlobal, Regional, Local Rangeにおける画像階層を明示的にモデル化するGRLと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-01T18:59:29Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - High-Quality Pluralistic Image Completion via Code Shared VQGAN [51.7805154545948]
高速な推論速度で高品質と多様性を両立させることができる多元画像補完のための新しい枠組みを提案する。
我々のフレームワークは、セマンティックにリッチな離散的なコードを効率的かつ堅牢に学習することができ、画像再構成の品質が大幅に向上する。
論文 参考訳(メタデータ) (2022-04-05T01:47:35Z) - Global and Local Alignment Networks for Unpaired Image-to-Image
Translation [170.08142745705575]
未ペア画像から画像への変換の目的は、対象領域のスタイルを反映した出力画像を作成することである。
既存の手法では内容変化に注意が払われていないため、ソース画像からの意味情報は翻訳中の劣化に悩まされる。
我々はGLA-Net(Global and Local Alignment Networks)という新しいアプローチを導入する。
本手法は既存の手法よりもシャープでリアルな画像を効果的に生成する。
論文 参考訳(メタデータ) (2021-11-19T18:01:54Z) - Global and Local Texture Randomization for Synthetic-to-Real Semantic
Segmentation [40.556020857447535]
GTR(Global Randomization)とLTR(Local Texture Randomization)という2つの単純なテクスチャランダム化機構を提案する。
GTRは、ソース画像のテクスチャを多様なテクスチャスタイルにランダム化する。
LTRは、ソースイメージを部分的にスタイリングするために、多様なローカル領域を生成する。
論文 参考訳(メタデータ) (2021-08-05T05:14:49Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。