論文の概要: Multi-population GAN Training: Analyzing Co-Evolutionary Algorithms
- arxiv url: http://arxiv.org/abs/2507.13157v1
- Date: Thu, 17 Jul 2025 14:19:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.533537
- Title: Multi-population GAN Training: Analyzing Co-Evolutionary Algorithms
- Title(参考訳): マルチポピュレーションGANトレーニング:共進化的アルゴリズムの解析
- Authors: Walter P. Casas, Jamal Toutouh,
- Abstract要約: GAN(Generative Adversarial Network)は強力な生成モデルであるが,モード崩壊や不安定性などの病態のため,トレーニングが困難である。
近年の研究では、ジェネレータと識別器の個体群が進化する進化的アプローチが研究されている。
本稿では,異なる共進化的GANトレーニング戦略の実証分析を行い,選択と代替メカニズムの影響に着目した。
- 参考スコア(独自算出の注目度): 0.3683202928838613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks (GANs) are powerful generative models but remain challenging to train due to pathologies suchas mode collapse and instability. Recent research has explored co-evolutionary approaches, in which populations of generators and discriminators are evolved, as a promising solution. This paper presents an empirical analysis of different coevolutionary GAN training strategies, focusing on the impact of selection and replacement mechanisms. We compare (mu,lambda), (mu+lambda) with elitism, and (mu+lambda) with tournament selection coevolutionary schemes, along with a non-evolutionary population based multi-generator multi-discriminator GAN baseline, across both synthetic low-dimensional datasets (blob and gaussian mixtures) and an image-based benchmark (MNIST). Results show that full generational replacement, i.e., (mu,lambda), consistently outperforms in terms of both sample quality and diversity, particularly when combined with larger offspring sizes. In contrast, elitist approaches tend to converge prematurely and suffer from reduced diversity. These findings highlight the importance of balancing exploration and exploitation dynamics in coevolutionary GAN training and provide guidance for designing more effective population-based generative models.
- Abstract(参考訳): GAN(Generative Adversarial Network)は強力な生成モデルであるが,モード崩壊や不安定といった病態のため,トレーニングが困難である。
近年の研究では、ジェネレータと識別器の集団が進化する進化的アプローチを、有望な解決策として探求している。
本稿では,異なる共進化的GANトレーニング戦略の実証分析を行い,選択と代替メカニズムの影響に着目した。
我々は,非進化的集団に基づくマルチジェネレータGANベースラインと,合成低次元データセット(ブロブとガウス混合)と画像ベースベンチマーク(MNIST)を比較し,エリティズムと(mu+lambda)と(mu+lambda)とトーナメント選択の共進化的スキームを比較した。
結果として、完全な世代置換、すなわち(mu,lambda)は、サンプルの品質と多様性の両方において、特により大きな子孫サイズと組み合わせた場合、一貫してパフォーマンスが向上することが示された。
対照的に、エリート主義のアプローチは早めに収束し、多様性の低下に悩まされる傾向にある。
これらの知見は、共進化的GANトレーニングにおける探索と利用のダイナミクスのバランスの重要性を強調し、より効果的な人口ベース生成モデルの設計のためのガイダンスを提供する。
関連論文リスト
- Generate more than one child in your co-evolutionary semi-supervised learning GAN [1.3927943269211591]
SSL-GANは過去10年間に多くの研究者を惹きつけてきた。
GANの2つのネットワークが別々の集団で進化する、共進化的アプローチが適用されている。
我々は,共進化型SSL-GAN(Co-evolutionary Elitist SSL-GAN,CE-SSLGAN)と呼ばれる新しい共進化的アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-29T09:04:22Z) - Heuristically Adaptive Diffusion-Model Evolutionary Strategy [1.8299322342860518]
拡散モデル(Diffusion Models)は、生成モデルにおいて重要な進歩を示す。
本研究は,拡散モデルと進化的アルゴリズムの基本的な関係を明らかにする。
我々のフレームワークは、進化的最適化プロセスにおいて、柔軟性、精度、制御性を高めたアルゴリズム上の大きな遷移を示す。
論文 参考訳(メタデータ) (2024-11-20T16:06:28Z) - When Large Language Models Meet Evolutionary Algorithms: Potential Enhancements and Challenges [50.280704114978384]
事前訓練された大規模言語モデル(LLM)は、自然なテキストを生成する強力な能力を示す。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - EGANS: Evolutionary Generative Adversarial Network Search for Zero-Shot
Learning [13.275693216436494]
本稿では, 適応性と安定性に優れた生成ネットワークを自動設計するために, 進化的生成逆ネットワーク探索(EGANS)を提案する。
EGANSは進化生成器アーキテクチャサーチと進化生成器アーキテクチャサーチの2つの段階によって学習される。
実験により、EGANSは標準CUB、SUN、AWA2、FLOデータセットの既存の生成ZSLメソッドを一貫して改善していることが示された。
論文 参考訳(メタデータ) (2023-08-19T05:47:03Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - cMLSGA: A Co-Evolutionary Multi-Level Selection Genetic Algorithm for
Multi-Objective Optimization [0.0]
MLSGA(Multi-Level Selection Genetic Algorithm)は、すでに様々な問題に対して優れた性能を示している。
本稿では,共進化を個人ではなく集団間の競争として定義する,個別の共進化機構を提案する。
論文 参考訳(メタデータ) (2021-04-22T13:52:21Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Analyzing the Components of Distributed Coevolutionary GAN Training [8.198369743955528]
共進化における多様性に影響を与える2つのアルゴリズム成分の性能への影響について検討する。
MNISTデータセットの実験では、これらの2つのコンポーネントの組み合わせが最良の生成モデルを提供することがわかった。
論文 参考訳(メタデータ) (2020-08-03T18:35:06Z) - Towards Multimodal Response Generation with Exemplar Augmentation and
Curriculum Optimization [73.45742420178196]
本稿では,高度化とカリキュラム最適化を併用した,新しいマルチモーダル応答生成フレームワークを提案する。
我々のモデルは多様性と妥当性の点で強いベースラインに比べて大幅に改善されている。
論文 参考訳(メタデータ) (2020-04-26T16:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。