論文の概要: Review and Analysis of Three Components of Differential Evolution
Mutation Operator in MOEA/D-DE
- arxiv url: http://arxiv.org/abs/2010.00265v1
- Date: Thu, 1 Oct 2020 09:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:35:22.755042
- Title: Review and Analysis of Three Components of Differential Evolution
Mutation Operator in MOEA/D-DE
- Title(参考訳): MOEA/D-DEにおける微分進化変異演算子の3成分のレビューと解析
- Authors: Ryoji Tanabe and Hisao Ishibuchi
- Abstract要約: 微分進化変分演算子(MOEA/D-DE)を用いた分解型多目的進化アルゴリズムは、挑戦的多目的問題(MOP)において高い性能を示す。
文献ではMOEA/D-DEに使用するDE変異演算子の構成について詳しくは研究されていない。
本報告では、MOEA/D-DEにおけるDe変異演算子の既存の構成を概観し、MOEA/D-DEの性能に対する各成分の影響を体系的に検討する。
- 参考スコア(独自算出の注目度): 7.81768535871051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A decomposition-based multi-objective evolutionary algorithm with a
differential evolution variation operator (MOEA/D-DE) shows high performance on
challenging multi-objective problems (MOPs). The DE mutation consists of three
key components: a mutation strategy, an index selection method for parent
individuals, and a bound-handling method. However, the configuration of the DE
mutation operator that should be used for MOEA/D-DE has not been thoroughly
investigated in the literature. This configuration choice confuses researchers
and users of MOEA/D-DE. To address this issue, we present a review of the
existing configurations of the DE mutation operator in MOEA/D-DE and
systematically examine the influence of each component on the performance of
MOEA/D-DE. Our review reveals that the configuration of the DE mutation
operator differs depending on the source code of MOEA/D-DE. In our analysis, a
total of 30 configurations (three index selection methods, two mutation
strategies, and five bound handling methods) are investigated on 16 MOPs with
up to five objectives. Results show that each component significantly affects
the performance of MOEA/D-DE. We also present the most suitable configuration
of the DE mutation operator, which maximizes the effectiveness of MOEA/D-DE.
- Abstract(参考訳): 微分進化変分演算子(MOEA/D-DE)を用いた分解型多目的進化アルゴリズムは、挑戦的多目的問題(MOP)において高い性能を示す。
DE変異は、突然変異戦略、親個体に対する指標選択法、およびバウンドハンドリング法という3つの重要な要素から構成される。
しかし、moea/d-deに用いるべきde変異演算子の構成は、文献で完全には研究されていない。
この構成選択は、MOEA/D-DEの研究者とユーザを混乱させる。
そこで本研究では,MOEA/D-DEにおけるDe変異演算子の既存の構成を概観し,MOEA/D-DEの性能に対する各成分の影響を系統的に検討する。
本報告では,MOEA/D-DEのソースコードによってDE変異演算子の構成が異なることを明らかにした。
本研究では,最大5つの目的を持つ16モップについて,合計30種類の構成(3つの索引選択法,2つの変異戦略,5つのバウンドハンドリング法)について検討した。
その結果,各成分はmoea/d-deの性能に大きく影響することがわかった。
また,moea/d-deの有効性を最大化するde変異演算子の最も適した構成を示す。
関連論文リスト
- Efficient and Effective Weight-Ensembling Mixture of Experts for Multi-Task Model Merging [111.8456671452411]
マルチタスク学習(MTL)は、共有モデルを利用して複数のタスクを遂行し、知識伝達を促進する。
マルチタスクモデル統合のためのウェイトエンセブリング・ミックス・オブ・エキスパート(WEMoE)手法を提案する。
WEMoEとE-WEMoEは, MTL性能, 一般化, 堅牢性の観点から, 最先端(SOTA)モデルマージ法より優れていることを示す。
論文 参考訳(メタデータ) (2024-10-29T07:16:31Z) - Diversifying the Mixture-of-Experts Representation for Language Models with Orthogonal Optimizer [59.43462055143123]
The Mixture of Experts (MoE)は、ディープラーニングにおいて非常に成功したテクニックとして登場した。
本研究では,MoEの専門家が多様性の専門化や欠如に失敗した同質表現問題に光を当てた。
我々は,各専門家が他の専門家に分散された部分空間への方向を更新するように促す訓練戦略を交互に提案する。
論文 参考訳(メタデータ) (2023-10-15T07:20:28Z) - Multi-body SE(3) Equivariance for Unsupervised Rigid Segmentation and
Motion Estimation [49.56131393810713]
本稿では、SE(3)同変アーキテクチャと、この課題に教師なしで取り組むためのトレーニング戦略を提案する。
本手法は,0.25Mパラメータと0.92G FLOPを用いて,モデル性能と計算効率を両立させる。
論文 参考訳(メタデータ) (2023-06-08T22:55:32Z) - Multi objective Fitness Dependent Optimizer Algorithm [19.535715565093764]
本稿では、最近導入されたフィットネス依存型(FDO)の多目的変種を提案する。
このアルゴリズムはMOFDO(Multi objective Fitness Dependent)と呼ばれ、FDOのように5種類の知識(situational, normative, topographical, domain, historical knowledge)を備えている。
提案アルゴリズムは,多種多様な分散可能な実現可能解を提供することで,意思決定者がより適用可能な快適な選択をすることができる。
論文 参考訳(メタデータ) (2023-01-26T06:33:53Z) - Exploiting modality-invariant feature for robust multimodal emotion
recognition with missing modalities [76.08541852988536]
我々は、欠落したモダリティ・イマジネーション・ネットワーク(IF-MMIN)に不変な特徴を用いることを提案する。
提案モデルは,不確実なモダリティ条件下で,すべてのベースラインを上回り,全体の感情認識性能を不変に向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T12:16:25Z) - Effective Mutation Rate Adaptation through Group Elite Selection [50.88204196504888]
本稿では,GESMR(Group Elite Selection of Mutation Rates)アルゴリズムを提案する。
GESMRは解の集団とMRの集団を共進化させ、各MRは解群に割り当てられる。
同じ数の関数評価とオーバーヘッドのほとんどないGESMRは、以前のアプローチよりも早く、より良いソリューションに収束する。
論文 参考訳(メタデータ) (2022-04-11T01:08:26Z) - Permutation Invariant Policy Optimization for Mean-Field Multi-Agent
Reinforcement Learning: A Principled Approach [128.62787284435007]
本稿では,平均場近似ポリシ最適化(MF-PPO)アルゴリズムを提案する。
我々は,MF-PPOが収束のサブ線形速度で世界的最適政策を達成することを証明した。
特に、置換不変ニューラルアーキテクチャによって引き起こされる誘導バイアスは、MF-PPOが既存の競合より優れていることを示す。
論文 参考訳(メタデータ) (2021-05-18T04:35:41Z) - An Analysis of Control Parameters of MOEA/D Under Two Different
Optimization Scenarios [7.81768535871051]
分解ベースのMOEA(MOEA/D)は、UEAがMOEA/Dに組み込まれるとき、最先端のMOEAと競合する。
制御パラメータ設定がMOEA/Dの性能にどのように影響するかは不明である。
論文 参考訳(メタデータ) (2020-10-02T07:35:35Z) - Evolutionary Multi Objective Optimization Algorithm for Community
Detection in Complex Social Networks [10.855626765597005]
ネットワーク内のコミュニティ構造を見つけるために,3目的の定式化の2つのバリエーションを提案する。
4つのベンチマークネットワークデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-05-07T00:13:31Z) - Hybrid Adaptive Evolutionary Algorithm for Multi-objective Optimization [0.0]
本稿では、MoHAEAと呼ばれるハイブリッド適応進化アルゴリズム(HAEA)の拡張として、新しい多目的アルゴリズムを提案する。
MoHAEAは、MOEA/D、pa$lambda$-MOEA/D、MOEA/D-AWA、NSGA-IIの4つの状態と比較される。
論文 参考訳(メタデータ) (2020-04-29T02:16:49Z) - Solving Portfolio Optimization Problems Using MOEA/D and Levy Flight [5.167794607251493]
本稿では,L'evy Flightと命名された分布型突然変異法をMOEA/Dという分解型MOEAに注入する手法を提案する。
数値的な結果と統計的テストにより、ほとんどの場合、この手法は比較法より優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T02:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。