論文の概要: MSGDD-cGAN: Multi-Scale Gradients Dual Discriminator Conditional
Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2109.05614v1
- Date: Sun, 12 Sep 2021 21:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:23:15.046394
- Title: MSGDD-cGAN: Multi-Scale Gradients Dual Discriminator Conditional
Generative Adversarial Network
- Title(参考訳): MSGDD-cGAN:マルチスケールグラディエントデュアル識別器条件付き生成逆ネットワーク
- Authors: Mohammadreza Naderi, Zahra Nabizadeh, Nader Karimi, Shahram Shirani,
Shadrokh Samavi
- Abstract要約: MSGDD-cGANは、条件付き生成逆数ネットワーク(cGAN)の性能を安定化するために提案される。
本モデルでは,CGANのピクセルバージョンと比較してF1スコアが3.18%増加した。
- 参考スコア(独自算出の注目度): 14.08122854653421
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conditional Generative Adversarial Networks (cGANs) have been used in many
image processing tasks. However, they still have serious problems maintaining
the balance between conditioning the output on the input and creating the
output with the desired distribution based on the corresponding ground truth.
The traditional cGANs, similar to most conventional GANs, suffer from vanishing
gradients, which backpropagate from the discriminator to the generator.
Moreover, the traditional cGANs are sensitive to architectural changes due to
previously mentioned gradient problems. Therefore, balancing the architecture
of the cGANs is almost impossible. Recently MSG-GAN has been proposed to
stabilize the performance of the GANs by applying multiple connections between
the generator and discriminator. In this work, we propose a method called
MSGDD-cGAN, which first stabilizes the performance of the cGANs using
multi-connections gradients flow. Secondly, the proposed network architecture
balances the correlation of the output to input and the fitness of the output
on the target distribution. This balance is generated by using the proposed
dual discrimination procedure. We tested our model by segmentation of fetal
ultrasound images. Our model shows a 3.18% increase in the F1 score comparing
to the pix2pix version of cGANs.
- Abstract(参考訳): 条件付き生成逆ネットワーク(cGAN)は多くの画像処理タスクで使われている。
しかし、それらには、入力の出力条件付けと、対応する基底真理に基づく所望の分布による出力生成のバランスを保ち続ける深刻な問題がある。
従来の多くのGANと同様に、従来のcGANは、識別器からジェネレータへのバックプロパガンダである、消失する勾配に悩まされている。
さらに、従来のcGANは、前述の勾配問題によりアーキテクチャの変更に敏感である。
したがって、cgansのアーキテクチャのバランスはほぼ不可能である。
近年,ジェネレータと識別器を複数接続することで,GANの性能を安定させるMSG-GANが提案されている。
本研究では,マルチコネクション勾配流を用いて,まずcGANの性能を安定化するMSGDD-cGANを提案する。
第二に、提案するネットワークアーキテクチャは、入力に対する出力の相関と目標分布に対する出力の適合性のバランスをとる。
このバランスは、提案された双対識別手順を用いて生成される。
胎児超音波画像のセグメンテーションによる実験を行った。
本モデルでは,CGANのピクセルバージョンと比較してF1スコアが3.18%増加した。
関連論文リスト
- DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - EGC: Image Generation and Classification via a Diffusion Energy-Based
Model [59.591755258395594]
この研究は、エネルギーベースの分類器とジェネレータ、すなわちEMCを導入し、単一のニューラルネットワークを使用して両方のタスクで優れたパフォーマンスを実現する。
EGCはImageNet-1k、CelebA-HQ、LSUN Churchの最先端アプローチと比較して、競争力のある生成結果を達成している。
この研究は、ネットワークパラメータの単一セットを使用して両方のタスクを同時に実行しようとする最初の試みである。
論文 参考訳(メタデータ) (2023-04-04T17:59:14Z) - Latent Multi-Relation Reasoning for GAN-Prior based Image
Super-Resolution [61.65012981435095]
LARENはグラフベースの非絡み合いであり、階層的マルチリレーショナル推論によってより優れた非絡み合い空間を構築する。
我々は、LARENが優れた大因子画像SRを実現し、複数のベンチマークで常に最先端の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-08-04T19:45:21Z) - A Unified View of cGANs with and without Classifiers [24.28407308818025]
Conditional Generative Adversarial Networks (cGANs) は、クラス条件分布からサンプリングできる暗黙の生成モデルである。
いくつかの代表的cGANは、分類器を使わずに最先端のパフォーマンスに到達するのを避ける。
本研究では,cGANを改善するために,分類器を適切に活用できることを実証する。
論文 参考訳(メタデータ) (2021-11-01T15:36:33Z) - Are conditional GANs explicitly conditional? [0.0]
本稿では,条件付きジェネレーティブ・アドバイザリ・ネットワーク(cGAN)に対する2つのコントリビューションを提案する。
最初の主な貢献は、cGANの分析であり、それらが明示的に条件付きでないことを示すものである。
第2のコントリビューションは、アコントラリオと呼ばれる新しい手法であり、敵アーキテクチャの両部分の条件性を明示的にモデル化する。
論文 参考訳(メタデータ) (2021-06-28T22:49:27Z) - Combining Transformer Generators with Convolutional Discriminators [9.83490307808789]
最近提案されたTransGANはトランスフォーマーアーキテクチャのみを使用した最初のGANである。
TransGANは、データ拡張、トレーニング中の補助的な超解像タスク、そして自己保持メカニズムを導く前にマスクを必要とする。
我々は、よく知られたCNN識別器のベンチマークを行い、トランスフォーマーベースジェネレータのサイズを減らし、両方のアーキテクチャ要素をハイブリッドモデルに組み込むことにより、より良い結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-21T07:56:59Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。