論文の概要: EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2401.15931v1
- Date: Mon, 29 Jan 2024 07:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:36:53.172795
- Title: EmoDM: A Diffusion Model for Evolutionary Multi-objective Optimization
- Title(参考訳): EmoDM:進化的多目的最適化のための拡散モデル
- Authors: Xueming Yan and Yaochu Jin
- Abstract要約: この研究は、EmoDMと呼ばれる進化的多目的探索を学習できる拡散モデルを提案する。
EmoDMは、新たなMOPに対して、さらなる進化的な探索をすることなく、その逆拡散によって、一組の非支配的なソリューションを生成することができる。
実験により,探索性能と計算効率の両面から,EmoDMの競合性を示す。
- 参考スコア(独自算出の注目度): 26.432301097788276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolutionary algorithms have been successful in solving multi-objective
optimization problems (MOPs). However, as a class of population-based search
methodology, evolutionary algorithms require a large number of evaluations of
the objective functions, preventing them from being applied to a wide range of
expensive MOPs. To tackle the above challenge, this work proposes for the first
time a diffusion model that can learn to perform evolutionary multi-objective
search, called EmoDM. This is achieved by treating the reversed convergence
process of evolutionary search as the forward diffusion and learn the noise
distributions from previously solved evolutionary optimization tasks. The
pre-trained EmoDM can then generate a set of non-dominated solutions for a new
MOP by means of its reverse diffusion without further evolutionary search,
thereby significantly reducing the required function evaluations. To enhance
the scalability of EmoDM, a mutual entropy-based attention mechanism is
introduced to capture the decision variables that are most important for the
objectives. Experimental results demonstrate the competitiveness of EmoDM in
terms of both the search performance and computational efficiency compared with
state-of-the-art evolutionary algorithms in solving MOPs having up to 5000
decision variables. The pre-trained EmoDM is shown to generalize well to unseen
problems, revealing its strong potential as a general and efficient MOP solver.
- Abstract(参考訳): 進化的アルゴリズムは多目的最適化問題(MOP)の解決に成功している。
しかし、人口ベースの探索手法のクラスとして、進化的アルゴリズムは目的関数の多くの評価を必要とするため、広範囲の高価なMOPに適用できない。
上記の課題に取り組むため、本研究ではemodmと呼ばれる進化的多目的探索を学べる拡散モデルが初めて提案する。
これは進化探索の逆収束過程を前方拡散として扱い、以前に解いた進化最適化タスクから雑音分布を学習することで達成される。
事前学習したEmoDMは、その逆拡散により新しいMOPの非支配的解の集合を、さらなる進化的探索なしに生成し、必要な関数評価を著しく低減することができる。
EmoDMのスケーラビリティを高めるために、目的に対して最も重要な決定変数をキャプチャするために、相互エントロピーに基づくアテンション機構を導入する。
実験の結果,最大5000の決定変数を持つモップの解法において,探索性能と計算効率の両方においてemodmの競合性が実証された。
事前学習したEmoDMは、目に見えない問題に対してうまく一般化し、汎用的で効率的なMOP解法としての可能性を明らかにする。
関連論文リスト
- Evolutionary Large Language Model for Automated Feature Transformation [25.956740176321897]
自動特徴変換のための進化的Large Language Model (LLM) フレームワークを提案する。
本フレームワークは,1)RLデータコレクタによるマルチポピュレーションデータベースの構築,2)大規模言語モデル(LLM)のシーケンス理解能力を活用した2つの部分から構成される。
提案手法の有効性と汎用性を実証的に示す。
論文 参考訳(メタデータ) (2024-05-25T12:27:21Z) - Pre-Evolved Model for Complex Multi-objective Optimization Problems [3.784829029016233]
多目的最適化問題(MOP)は、複数の目的の同時最適化を必要とする。
本稿では、MOEAが多様な複雑なMOPに対して高品質な人口を生み出すための事前進化の概念を提案する。
論文 参考訳(メタデータ) (2023-12-11T05:16:58Z) - Evolutionary Dynamic Optimization and Machine Learning [0.0]
進化計算(Evolutionary Computation, EC)は、人工知能の強力な分野として出現し、徐々に発展する自然のメカニズムに触発されている。
これらの制限を克服するために、研究者は学習アルゴリズムと進化的手法を統合した。
この統合は、反復探索中にECアルゴリズムによって生成された貴重なデータを活用し、検索空間と人口動態に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-10-12T22:28:53Z) - Rank-Based Learning and Local Model Based Evolutionary Algorithm for High-Dimensional Expensive Multi-Objective Problems [1.0499611180329806]
提案アルゴリズムは, ランクベース学習, ハイパーボリュームベース非支配探索, 比較的スパースな対象空間における局所探索の3つの部分からなる。
地熱貯留層熱抽出最適化におけるベンチマーク問題と実世界の応用の実験的結果は,提案アルゴリズムが優れた性能を示すことを示すものである。
論文 参考訳(メタデータ) (2023-04-19T06:25:04Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Multi-objective hyperparameter optimization with performance uncertainty [62.997667081978825]
本稿では,機械学習アルゴリズムの評価における不確実性を考慮した多目的ハイパーパラメータ最適化の結果について述べる。
木構造型Parzen Estimator(TPE)のサンプリング戦略と、ガウス過程回帰(GPR)と異種雑音の訓練後に得られたメタモデルを組み合わせる。
3つの解析的テスト関数と3つのML問題の実験結果は、多目的TPEとGPRよりも改善したことを示している。
論文 参考訳(メタデータ) (2022-09-09T14:58:43Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - dMFEA-II: An Adaptive Multifactorial Evolutionary Algorithm for
Permutation-based Discrete Optimization Problems [6.943742860591444]
本稿では、最近導入されたMFEA-II(Multifactorial Evolutionary Algorithm II)を、置換に基づく離散環境に適用する。
提案手法の性能を5種類のマルチタスク設定で評価した。
論文 参考訳(メタデータ) (2020-04-14T14:42:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。