論文の概要: Look ATME: The Discriminator Mean Entropy Needs Attention
- arxiv url: http://arxiv.org/abs/2304.09024v1
- Date: Tue, 18 Apr 2023 14:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 14:21:19.857880
- Title: Look ATME: The Discriminator Mean Entropy Needs Attention
- Title(参考訳): ATMEを見てみよう: 差別的エントロピーには注意が必要だ
- Authors: Edgardo Solano-Carrillo, Angel Bueno Rodriguez, Borja Carrillo-Perez,
Yannik Steiniger, Jannis Stoppe
- Abstract要約: GAN(Generative Adversarial Network)は、画像合成に成功しているが、トレーニング中に不安定に直面することが知られている。
本稿では,GANを安定的に理論最適に収束させる簡単な手法を提案する。
画像から画像へ変換するタスクにおいて,本手法の有効性を実証し,最先端の手法よりも低コストで優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are successfully used for image
synthesis but are known to face instability during training. In contrast,
probabilistic diffusion models (DMs) are stable and generate high-quality
images, at the cost of an expensive sampling procedure. In this paper, we
introduce a simple method to allow GANs to stably converge to their theoretical
optimum, while bringing in the denoising machinery from DMs. These models are
combined into a simpler model (ATME) that only requires a forward pass during
inference, making predictions cheaper and more accurate than DMs and popular
GANs. ATME breaks an information asymmetry existing in most GAN models in which
the discriminator has spatial knowledge of where the generator is failing. To
restore the information symmetry, the generator is endowed with knowledge of
the entropic state of the discriminator, which is leveraged to allow the
adversarial game to converge towards equilibrium. We demonstrate the power of
our method in several image-to-image translation tasks, showing superior
performance than state-of-the-art methods at a lesser cost. Code is available
at https://github.com/DLR-MI/atme
- Abstract(参考訳): generative adversarial network (gans) は画像合成に有効であるが、訓練中に不安定に直面することが知られている。
対照的に、確率拡散モデル(DM)は安定であり、高価なサンプリング手順を犠牲にして高品質な画像を生成する。
本稿では,GANを理論的最適性に安定に収束させつつ,DMからデノナイジング機構を取り入れた簡易な手法を提案する。
これらのモデルは、推論中にフォワードパスのみを必要とする単純なモデル(ATME)に組み合わされ、DMや一般的なGANよりも安価で正確である。
ATMEは、ほとんどのGANモデルに存在する情報非対称性を破る。
情報対称性を回復するために、ジェネレータには判別器のエントロピー状態の知識が与えられ、これは敵のゲームが平衡に向かって収束するために利用される。
画像から画像へ変換するタスクにおいて,本手法の有効性を実証し,最先端の手法よりも低コストで優れた性能を示す。
コードはhttps://github.com/DLR-MI/atmeで入手できる。
関連論文リスト
- Iterative Token Evaluation and Refinement for Real-World
Super-Resolution [77.74289677520508]
実世界の画像超解像(RWSR)は、低品質(LQ)画像が複雑で未同定の劣化を起こすため、長年にわたる問題である。
本稿では,RWSRのための反復的トークン評価・リファインメントフレームワークを提案する。
ITERはGAN(Generative Adversarial Networks)よりも訓練が容易であり,連続拡散モデルよりも効率的であることを示す。
論文 参考訳(メタデータ) (2023-12-09T17:07:32Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - Fast Unsupervised Brain Anomaly Detection and Segmentation with
Diffusion Models [1.6352599467675781]
脳画像における異常検出とセグメント分割のための拡散モデルに基づく手法を提案する。
拡散モデルは,2次元CTおよびMRIデータを用いた一連の実験において,自己回帰的アプローチと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2022-06-07T17:30:43Z) - Learning Multiple Probabilistic Degradation Generators for Unsupervised
Real World Image Super Resolution [5.987801889633082]
教師なしの現実世界のスーパーレゾリューションは、ペア化されたデータが利用できない場合に、低解像度(LR)入力を与えられた高解像度(HR)イメージを復元することを目的としている。
最も一般的なアプローチの1つは、GANを使ってノイズの多いLR画像を合成し、合成データセットを使用してモデルを教師付きで訓練することである。
HR画像が与えられたLR画像の分布を近似する確率分解生成器を提案する。
論文 参考訳(メタデータ) (2022-01-26T04:49:11Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - AE-OT-GAN: Training GANs from data specific latent distribution [21.48007565143911]
GAN(Generative Adversarial Network)は、現実的かつクリップな画像を生成するモデルである。
GANはしばしばモード崩壊問題に遭遇し、連続DNNを用いて本質的不連続分布変換マップを近似することから訓練に固執する。
最近提案されたAE-OTモデルでは、不連続なdistribu-tion変換マップを明示的に計算することで、この問題に対処している。
本稿では,AE-OT-GANモデルを用いて,高品質な画像を生成すると同時に,モード崩壊/混合問題を克服する。
論文 参考訳(メタデータ) (2020-01-11T01:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。