論文の概要: MOEA/D with Adaptative Number of Weight Vectors
- arxiv url: http://arxiv.org/abs/2109.05741v1
- Date: Mon, 13 Sep 2021 07:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 05:28:41.086880
- Title: MOEA/D with Adaptative Number of Weight Vectors
- Title(参考訳): 重みベクトルの適応数を持つMOEA/D
- Authors: Yuri Lavinas, Abe Mitsu Teru, Yuta Kobayashi, and Claus Aranha
- Abstract要約: 分解に基づく多目的進化アルゴリズム(MOEA/D)は、多目的問題(MOP)を解決するための一般的なアルゴリズムである。
ここでは、不要なベクトルを除去し、対象空間の空の領域に新しいベクトルを追加することで、ベクトルの数を適応的に変更する。
その結果,提案手法は細調整ベクターを持つMOEA/Dと等価であり,ベクターが未定義のMOEA/Dよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.9449650062296823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Multi-Objective Evolutionary Algorithm based on Decomposition (MOEA/D) is
a popular algorithm for solving Multi-Objective Problems (MOPs). The main
component of MOEA/D is to decompose a MOP into easier sub-problems using a set
of weight vectors. The choice of the number of weight vectors significantly
impacts the performance of MOEA/D. However, the right choice for this number
varies, given different MOPs and search stages.
Here we adaptively change the number of vectors by removing unnecessary
vectors and adding new ones in empty areas of the objective space.
Our MOEA/D variant uses the Consolidation Ratio to decide when to change the
number of vectors, and then it decides where to add or remove these weighted
vectors.
We investigate the effects of this adaptive MOEA/D against MOEA/D with a
poorly chosen set of vectors, a MOEA/D with fine-tuned vectors and MOEA/D-AWA
on the DTLZ and ZDT benchmark functions. We analyse the algorithms in terms of
hypervolume, IGD and entropy performance.
Our results show that the proposed method is equivalent to MOEA/D with
fine-tuned vectors and superior to MOEA/D with poorly defined vectors. Thus,
our adaptive mechanism mitigates problems related to the choice of the number
of weight vectors in MOEA/D, increasing the final performance of MOEA/D by
filling empty areas of the objective space while avoiding premature stagnation
of the search progress.
- Abstract(参考訳): 分解に基づく多目的進化アルゴリズム(MOEA/D)は、多目的問題(MOP)を解決するための一般的なアルゴリズムである。
MOEA/D の主な構成要素は、重みベクトルの集合を用いて MOP をより簡単な部分確率に分解することである。
重みベクトルの数の選択はmoea/dの性能に大きく影響する。
しかし、この数に対する正しい選択は、異なるモップと検索段階によって異なる。
ここでは、不要なベクトルを除去し、対象空間の空の領域に新しいベクトルを追加することで、ベクトルの数を適応的に変更する。
当社のMOEA/D変種は、コンソリデーション比を用いてベクトルの数をいつ変更するかを決定し、次に重み付きベクトルの追加や削除の場所を決定する。
DTLZ と ZDT のベンチマーク関数に対して,この適応型MOEA/D がベクター群と細調整ベクター群とMOEA/D に対して与える影響について検討した。
我々はハイパーボリューム,igd,エントロピー性能の観点からアルゴリズムを分析する。
その結果,提案手法は細調整ベクターを持つMOEA/Dと等価であり,ベクターが未定義のMOEA/Dよりも優れていることがわかった。
これにより,MOEA/Dにおける重みベクトルの選択に関する問題を緩和し,探索進行の早期停滞を回避しつつ,対象空間の空き領域を埋めることによりMOEA/Dの最終性能を向上する。
関連論文リスト
- Multi-Task Model Merging via Adaptive Weight Disentanglement [69.7292615212444]
モデルマージのための適応重み分散法を提案する。
余剰ベクトルの抽出に成功し, 減算後, タスクベクトルは頑健な性能を維持した。
論文 参考訳(メタデータ) (2024-11-27T20:08:55Z) - VRSD: Rethinking Similarity and Diversity for Retrieval in Large Language Models [43.53494041932615]
ベクトル検索アルゴリズムは、大規模言語モデルにおける急速に進化するランドスケープ内のセマンティッククエリーに不可欠である。
本稿では,和ベクトルと問合せベクトルの関係から,両制約を特徴付ける新しい手法を提案する。
本稿では,VRSDの類似性と多様性を考慮したベクトル検索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-05T15:08:44Z) - In-Context Learning State Vector with Inner and Momentum Optimization [23.33921300777915]
大規模言語モデル(LLM)は、わずか数例からICL(In-Context Learning)を実行する素晴らしい能力を示した。
近年の研究では、ICLが学習した関数は変換器から得られる圧縮ベクトルで表現できることが示されている。
本稿では,これらの圧縮ベクトルの包括的解析,勾配降下法で訓練されたパラメータの並列化,状態ベクトルの概念について述べる。
論文 参考訳(メタデータ) (2024-04-17T10:19:15Z) - Sparse PCA with False Discovery Rate Controlled Variable Selection [12.167049432063129]
偽発見率(FDR)によるスパースPCAの別の定式化を提案する。
結果として生じるT-Rex PCAの大きな利点は、スパーシティパラメータチューニングを必要としないことである。
数値実験と株式市場のデータ例は、大幅な性能改善を示している。
論文 参考訳(メタデータ) (2024-01-16T14:07:36Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Correcting Momentum with Second-order Information [50.992629498861724]
最適積に$O(epsilon)$epsilon点を求める非臨界最適化のための新しいアルゴリズムを開発した。
我々は、さまざまな大規模ディープラーニングベンチマークとアーキテクチャで結果を検証する。
論文 参考訳(メタデータ) (2021-03-04T19:01:20Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Variable Division and Optimization for Constrained Multiobjective
Portfolio Problems [8.056425814256116]
可変分割と最適化(D&O)は、進化的アルゴリズム(EA)で頻繁に使用されるアルゴリズム設計パラダイムです。
本稿では,多対象問題における部分変数のエリート選択法を提案する。
数学的プログラミングの助けを借りて、制約付き多目的ポートフォリオ問題で達成される。
論文 参考訳(メタデータ) (2021-01-21T11:08:23Z) - Review and Analysis of Three Components of Differential Evolution
Mutation Operator in MOEA/D-DE [7.81768535871051]
微分進化変分演算子(MOEA/D-DE)を用いた分解型多目的進化アルゴリズムは、挑戦的多目的問題(MOP)において高い性能を示す。
文献ではMOEA/D-DEに使用するDE変異演算子の構成について詳しくは研究されていない。
本報告では、MOEA/D-DEにおけるDe変異演算子の既存の構成を概観し、MOEA/D-DEの性能に対する各成分の影響を体系的に検討する。
論文 参考訳(メタデータ) (2020-10-01T09:16:30Z) - On Mean Absolute Error for Deep Neural Network Based Vector-to-Vector
Regression [79.86233860519621]
我々は,ディープニューラルネットワーク(DNN)に基づくベクトル-ベクトル回帰の損失関数として,平均絶対誤差(MAE)の特性を利用する。
我々は,MAEをラプラシアン分布によってモデル化された誤差として解釈できることを示す。
論文 参考訳(メタデータ) (2020-08-12T22:41:26Z) - Analyzing Upper Bounds on Mean Absolute Errors for Deep Neural Network
Based Vector-to-Vector Regression [79.86233860519621]
本稿では,ディープニューラルネットワーク(DNN)を用いたベクトル-ベクトル回帰において,平均絶対誤差と期待特徴誤差の間に一般化された誤差(MAE)が存在することを示す。
DNNに基づくベクトル-ベクトル回帰のためのMAEの上界を提案する。
論文 参考訳(メタデータ) (2020-08-04T19:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。