論文の概要: EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2401.15931v1
- Date: Mon, 29 Jan 2024 07:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:36:53.172795
- Title: EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization
- Title(参考訳): EmoDM:進化的多目的最適化のための拡散モデル
- Authors: Xueming Yan and Yaochu Jin
- Abstract要約: この研究は、EmoDMと呼ばれる進化的多目的探索を学習できる拡散モデルを提案する。
EmoDMは、新たなMOPに対して、さらなる進化的な探索をすることなく、その逆拡散によって、一組の非支配的なソリューションを生成することができる。
実験により,探索性能と計算効率の両面から,EmoDMの競合性を示す。
- 参考スコア(独自算出の注目度): 26.432301097788276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolutionary algorithms have been successful in solving multi-objective
optimization problems (MOPs). However, as a class of population-based search
methodology, evolutionary algorithms require a large number of evaluations of
the objective functions, preventing them from being applied to a wide range of
expensive MOPs. To tackle the above challenge, this work proposes for the first
time a diffusion model that can learn to perform evolutionary multi-objective
search, called EmoDM. This is achieved by treating the reversed convergence
process of evolutionary search as the forward diffusion and learn the noise
distributions from previously solved evolutionary optimization tasks. The
pre-trained EmoDM can then generate a set of non-dominated solutions for a new
MOP by means of its reverse diffusion without further evolutionary search,
thereby significantly reducing the required function evaluations. To enhance
the scalability of EmoDM, a mutual entropy-based attention mechanism is
introduced to capture the decision variables that are most important for the
objectives. Experimental results demonstrate the competitiveness of EmoDM in
terms of both the search performance and computational efficiency compared with
state-of-the-art evolutionary algorithms in solving MOPs having up to 5000
decision variables. The pre-trained EmoDM is shown to generalize well to unseen
problems, revealing its strong potential as a general and efficient MOP solver.
- Abstract(参考訳): 進化的アルゴリズムは多目的最適化問題(MOP)の解決に成功している。
しかし、人口ベースの探索手法のクラスとして、進化的アルゴリズムは目的関数の多くの評価を必要とするため、広範囲の高価なMOPに適用できない。
上記の課題に取り組むため、本研究ではemodmと呼ばれる進化的多目的探索を学べる拡散モデルが初めて提案する。
これは進化探索の逆収束過程を前方拡散として扱い、以前に解いた進化最適化タスクから雑音分布を学習することで達成される。
事前学習したEmoDMは、その逆拡散により新しいMOPの非支配的解の集合を、さらなる進化的探索なしに生成し、必要な関数評価を著しく低減することができる。
EmoDMのスケーラビリティを高めるために、目的に対して最も重要な決定変数をキャプチャするために、相互エントロピーに基づくアテンション機構を導入する。
実験の結果,最大5000の決定変数を持つモップの解法において,探索性能と計算効率の両方においてemodmの競合性が実証された。
事前学習したEmoDMは、目に見えない問題に対してうまく一般化し、汎用的で効率的なMOP解法としての可能性を明らかにする。
関連論文リスト
- A match made in consistency heaven: when large language models meet
evolutionary algorithms [51.087936554483804]
事前訓練された大規模言語モデル(LLM)は、創造的な自然言語を生成する強力な能力を持つ。
進化的アルゴリズム(EA)は、複雑な現実世界の問題に対する多様な解決策を発見できる。
テキストシーケンスの生成と進化の共通の集合性と方向性に動機づけられた本論文は,LLMとEAの強い一貫性を示す。
論文 参考訳(メタデータ) (2024-01-19T05:58:30Z) - Pre-Evolved Model for Complex Multi-objective Optimization Problems [3.784829029016233]
多目的最適化問題(MOP)は、複数の目的の同時最適化を必要とする。
本稿では、MOEAが多様な複雑なMOPに対して高品質な人口を生み出すための事前進化の概念を提案する。
論文 参考訳(メタデータ) (2023-12-11T05:16:58Z) - Evolutionary Dynamic Optimization and Machine Learning [0.0]
進化計算(Evolutionary Computation, EC)は、人工知能の強力な分野として出現し、徐々に発展する自然のメカニズムに触発されている。
これらの制限を克服するために、研究者は学習アルゴリズムと進化的手法を統合した。
この統合は、反復探索中にECアルゴリズムによって生成された貴重なデータを活用し、検索空間と人口動態に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-10-12T22:28:53Z) - Rank-Based Learning and Local Model Based Evolutionary Algorithm for
High-Dimensional Expensive Multi-Objective Problems [1.1470070927586018]
提案アルゴリズムは, ランクベース学習, ハイパーボリュームベース非支配探索, 比較的スパースな対象空間における局所探索の3つの部分からなる。
地熱貯留層熱抽出最適化におけるベンチマーク問題と実世界の応用の実験的結果は,提案アルゴリズムが優れた性能を示すことを示すものである。
論文 参考訳(メタデータ) (2023-04-19T06:25:04Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Multi-objective hyperparameter optimization with performance uncertainty [62.997667081978825]
本稿では,機械学習アルゴリズムの評価における不確実性を考慮した多目的ハイパーパラメータ最適化の結果について述べる。
木構造型Parzen Estimator(TPE)のサンプリング戦略と、ガウス過程回帰(GPR)と異種雑音の訓練後に得られたメタモデルを組み合わせる。
3つの解析的テスト関数と3つのML問題の実験結果は、多目的TPEとGPRよりも改善したことを示している。
論文 参考訳(メタデータ) (2022-09-09T14:58:43Z) - A Survey on Learnable Evolutionary Algorithms for Scalable
Multiobjective Optimization [0.0]
多目的進化アルゴリズム(MOEA)は、様々な多目的最適化問題(MOP)を解決するために採用されている。
しかし、これらの進歩的に改善されたMOEAは、必ずしも高度にスケーラブルで学習可能な問題解決戦略を備えていない。
異なるシナリオの下では、効果的に解決するための新しい強力なMOEAを設計する必要がある。
MOPをスケールアップするための機械学習技術で自身を操る学習可能なMOEAの研究は、進化計算の分野で広く注目を集めている。
論文 参考訳(メタデータ) (2022-06-23T08:16:01Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - dMFEA-II: An Adaptive Multifactorial Evolutionary Algorithm for
Permutation-based Discrete Optimization Problems [6.943742860591444]
本稿では、最近導入されたMFEA-II(Multifactorial Evolutionary Algorithm II)を、置換に基づく離散環境に適用する。
提案手法の性能を5種類のマルチタスク設定で評価した。
論文 参考訳(メタデータ) (2020-04-14T14:42:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。