論文の概要: Faster Convergence in Multi-Objective Optimization Algorithms Based on
Decomposition
- arxiv url: http://arxiv.org/abs/2112.11939v1
- Date: Tue, 21 Dec 2021 07:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 02:32:13.054834
- Title: Faster Convergence in Multi-Objective Optimization Algorithms Based on
Decomposition
- Title(参考訳): 分解に基づく多目的最適化アルゴリズムの高速収束
- Authors: Yuri Lavinas, Marcelo Ladeira, Claus Aranha
- Abstract要約: 本研究は,MOEA/Dと部分更新戦略の効果について検討した。
以上の結果から,MOEA/Dの検索速度は,MOEA/Dの人口規模が小さく,MOEA/Dの検索速度が向上していることが示唆された。
- 参考スコア(独自算出の注目度): 0.07734726150561087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Resource Allocation approach (RA) improves the performance of MOEA/D by
maintaining a big population and updating few solutions each generation.
However, most of the studies on RA generally focused on the properties of
different Resource Allocation metrics. Thus, it is still uncertain what the
main factors are that lead to increments in performance of MOEA/D with RA. This
study investigates the effects of MOEA/D with the Partial Update Strategy in an
extensive set of MOPs to generate insights into correspondences of MOEA/D with
the Partial Update and MOEA/D with small population size and big population
size. Our work undertakes an in-depth analysis of the populational dynamics
behaviour considering their final approximation Pareto sets, anytime
hypervolume performance, attained regions and number of unique non-dominated
solutions. Our results indicate that MOEA/D with Partial Update progresses with
the search as fast as MOEA/D with small population size and explores the search
space as MOEA/D with big population size. MOEA/D with Partial Update can
mitigate common problems related to population size choice with better
convergence speed in most MOPs, as shown by the results of hypervolume and
number of unique non-dominated solutions, the anytime performance and Empirical
Attainment Function indicates.
- Abstract(参考訳): Resource Allocation(RA)アプローチは、MOEA/Dの性能を向上し、大きな人口を維持し、各世代に少数のソリューションを更新する。
しかしながら、raに関するほとんどの研究は、概して異なるリソース割り当てメトリクスの特性に焦点を当てている。
したがって、raによるmoea/dのパフォーマンス向上に繋がる主要な要因が何であるかはまだ不明である。
本研究は,MOEA/Dと部分更新戦略を併用したMOEA/Dの効果について検討し,MOEA/Dと部分更新およびMOEA/Dとの対応について,人口規模と人口規模が小さめで考察した。
本研究は, 最終近似Pareto集合, 常時超体積性能, 到達域, 非支配解数を考慮した個体群動態の詳細な解析を行った。
その結果,部分的な更新を伴うmoea/dは,人口規模が小さいmoea/dほど高速に探索され,人口規模が大きいmoea/dの探索空間を探索する。
部分更新を伴うMOEA/Dは、ハイパーボリュームの結果や独自の非支配的なソリューションの数が示すように、ほとんどのMOPにおいてより収束速度のよい集団選択に関連する一般的な問題を緩和することができる。
関連論文リスト
- On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Pre-Evolved Model for Complex Multi-objective Optimization Problems [3.784829029016233]
多目的最適化問題(MOP)は、複数の目的の同時最適化を必要とする。
本稿では、MOEAが多様な複雑なMOPに対して高品質な人口を生み出すための事前進化の概念を提案する。
論文 参考訳(メタデータ) (2023-12-11T05:16:58Z) - Non-stationary Reinforcement Learning under General Function
Approximation [60.430936031067006]
まず,非定常MDPに対する動的ベルマンエルダー次元(DBE)と呼ばれる新しい複雑性指標を提案する。
提案する複雑性指標に基づいて,SW-OPEAと呼ばれる新しい信頼度セットに基づくモデルフリーアルゴリズムを提案する。
SW-OPEAは,変動予算がそれほど大きくない限り,有効に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T16:19:37Z) - Factorization of Multi-Agent Sampling-Based Motion Planning [72.42734061131569]
現代のロボティクスは、共有環境内で複数のエンボディエージェントを動作させることが多い。
標準的なサンプリングベースのアルゴリズムは、ロボットの関節空間における解の探索に使用できる。
我々は、因子化の概念をサンプリングベースアルゴリズムに統合し、既存の手法への最小限の変更しか必要としない。
本稿では, PRM* のサンプル複雑性の観点から解析的ゲインを導出し, RRG の実証結果を示す。
論文 参考訳(メタデータ) (2023-04-01T15:50:18Z) - Multi-Agent Reinforcement Learning for Adaptive Mesh Refinement [17.72127385405445]
完全協調型マルコフゲームとしてアダプティブメッシュリファインメント(AMR)の新たな定式化を提案する。
VDGN(Value Decomposition Graph Network)と呼ばれる新しい深層マルチエージェント強化学習アルゴリズムを設計する。
VDGNポリシは,グローバルエラーおよびコスト指標において,エラーしきい値に基づくポリシよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-02T00:41:32Z) - Solving Large-Scale Multi-Objective Optimization via Probabilistic
Prediction Model [10.916384208006157]
効率的なLSMOPアルゴリズムは、巨大な検索空間から局所最適解を逃れる能力を持つべきである。
人口の多様性を維持することは、探索効率を向上させる効果的な方法の1つである。
LSMOP に取り組むために,トレンド予測モデルと LT-PPM と呼ばれる生成フィルタ戦略に基づく確率的予測モデルを提案する。
論文 参考訳(メタデータ) (2021-07-16T09:43:35Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z) - Uncrowded Hypervolume-based Multi-objective Optimization with Gene-pool
Optimal Mixing [0.0]
HypervolumeベースのMO最適化は、これを克服する有望な結果を示している。
Sofomoreフレームワークは、複数のインターリーブされた単一目的の動的問題を解くことでこれを克服する。
我々は,MO-GOMEAとUHV-GOMEAを併用したハイブリッドアプローチを構築し,両者を比較検討した。
論文 参考訳(メタデータ) (2020-04-10T15:14:54Z) - MOEA/D with Random Partial Update Strategy [0.04588028371034406]
そこで本研究では,各イテレーションで解のランダムなサブセットが選択される,よりシンプルな部分的更新戦略について検討する。
その結果、MOEA/Dを新しい部分更新戦略で使用すると、HVおよびIGD値が向上し、非支配的な解の比率が大幅に高くなることが示唆された。
論文 参考訳(メタデータ) (2020-01-20T05:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。