論文の概要: CDE-GAN: Cooperative Dual Evolution Based Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2008.09388v2
- Date: Tue, 23 Mar 2021 13:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:12:55.311728
- Title: CDE-GAN: Cooperative Dual Evolution Based Generative Adversarial Network
- Title(参考訳): cde-gan: 協調的進化に基づく生成的逆ネットワーク
- Authors: Shiming Chen and Wenjie Wang and Beihao Xia and Xinge You and Zehong
Cao and Weiping Ding
- Abstract要約: GAN(Generative Adversarial Network)は、現実世界のアプリケーションにおいて一般的な深層生成モデルである。
本稿では,これらの欠点を回避するために,協調的デュアル進化に基づくジェネレーティブ・アドバイザリアル・ネットワーク(CDE-GAN)を提案する。
本質的に、CDE-GANは、ジェネレータと識別器に関する二重進化を、統一された対向フレームワークに組み入れている。
- 参考スコア(独自算出の注目度): 32.91091802159556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have been a popular deep generative
model for real-world applications. Despite many recent efforts on GANs that
have been contributed, mode collapse and instability of GANs are still open
problems caused by their adversarial optimization difficulties. In this paper,
motivated by the cooperative co-evolutionary algorithm, we propose a
Cooperative Dual Evolution based Generative Adversarial Network (CDE-GAN) to
circumvent these drawbacks. In essence, CDE-GAN incorporates dual evolution
with respect to the generator(s) and discriminators into a unified evolutionary
adversarial framework to conduct effective adversarial multi-objective
optimization. Thus it exploits the complementary properties and injects dual
mutation diversity into training to steadily diversify the estimated density in
capturing multi-modes and improve generative performance. Specifically, CDE-GAN
decomposes the complex adversarial optimization problem into two subproblems
(generation and discrimination), and each subproblem is solved with a separated
subpopulation (E-Generator} and E-Discriminators), evolved by its own
evolutionary algorithm. Additionally, we further propose a Soft Mechanism to
balance the trade-off between E-Generators and E-Discriminators to conduct
steady training for CDE-GAN. Extensive experiments on one synthetic dataset and
three real-world benchmark image datasets demonstrate that the proposed CDE-GAN
achieves a competitive and superior performance in generating good quality and
diverse samples over baselines. The code and more generated results are
available at our project homepage:
https://shiming-chen.github.io/CDE-GAN-website/CDE-GAN.html.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、現実世界のアプリケーションにおいて一般的な深層生成モデルである。
GANに対する近年の取り組みにもかかわらず、GANのモード崩壊と不安定性は、その逆最適化困難に起因する未解決の問題である。
本稿では,協調的共進化的アルゴリズムを動機として,これらの欠点を回避するために協調的デュアル進化に基づくジェネレーティブ・アドバーサリアル・ネットワーク(CDE-GAN)を提案する。
本質的に、CDE-GANは、ジェネレータと識別器に関する二重進化を、効果的な対向多目的最適化を行うための統合された進化的対向フレームワークに組み入れている。
これにより、相補的特性を活用し、2つの突然変異多様性をトレーニングに注入し、推定密度を着実に多様化させ、生成性能を向上させる。
具体的には、CDE-GANは複雑な逆最適化問題を2つのサブプロブレムに分解し(生成と識別)、それぞれのサブプロブレムは分離されたサブポピュレーション(E-Generator}とE-Discriminator)で解かれる。
さらに,e-generators と e-discriminator のトレードオフをバランスさせ,cde-gan の定常的なトレーニングを行うソフトなメカニズムを提案する。
1つの合成データセットと3つの実世界のベンチマーク画像データセットに対する大規模な実験により、提案したCDE-GANは、ベースラインよりも高品質で多様なサンプルを生成する上で、競争力と優れた性能を達成できることを示した。
コードとより生成された結果は、プロジェクトのホームページ(https://shiming-chen.github.io/CDE-GAN-website/CDE-GAN.html)で公開されています。
関連論文リスト
- On the Convergence of (Stochastic) Gradient Descent for Kolmogorov--Arnold Networks [56.78271181959529]
Kolmogorov--Arnold Networks (KAN) はディープラーニングコミュニティで注目されている。
実験により、勾配降下(SGD)により最適化されたカンが、ほぼゼロに近い訓練損失を達成できることが示された。
論文 参考訳(メタデータ) (2024-10-10T15:34:10Z) - Introducing Competitive Mechanism to Differential Evolution for Numerical Optimization [6.464980828114218]
本稿では、微分進化(DE)に新たな競争メカニズムを導入する。
DE/winner-to-best/1という突然変異戦略が特徴である。
DE/Winner-to-best/1の導入と競争メカニズムはD技術の進歩に新たな道筋を提供する。
論文 参考訳(メタデータ) (2024-06-08T10:48:39Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - IE-GAN: An Improved Evolutionary Generative Adversarial Network Using a
New Fitness Function and a Generic Crossover Operator [20.100388977505002]
我々は、新しいフィットネス機能と汎用クロスオーバー演算子を導入するIE-GANと呼ばれる改良されたE-GANフレームワークを提案する。
特に、提案されたフィットネス機能は、個人の進化過程をより正確にモデル化することができる。
進化アルゴリズムで一般的に採用されているクロスオーバー演算子は、子孫が両親の優れた遺伝子発現を模倣することができる。
論文 参考訳(メタデータ) (2021-07-25T13:55:07Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - Evolutionary Generative Adversarial Networks with Crossover Based
Knowledge Distillation [4.044110325063562]
本稿では,進化戦略を用いてGANに広く適用可能な一般クロスオーバー演算子を提案する。
次に、それに基づいて進化的GANフレームワークC-GANを設計する。
そして、クロスオーバー演算子と進化生成逆数ネットワーク(EGAN)を組み合わせて、クロスオーバー(CE-GAN)を用いた進化生成逆数ネットワークを実装する。
論文 参考訳(メタデータ) (2021-01-27T03:24:30Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Exploring the Evolution of GANs through Quality Diversity [0.4588028371034407]
本稿では,GANの進化に品質多様性アルゴリズムを適用することを提案する。
提案手法は,従来のCOEGANモデルと,グローバルコンペティションアプローチを用いた代替バージョンとの比較を行った。
論文 参考訳(メタデータ) (2020-07-13T08:54:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。