論文の概要: Incremental Recursive Ranking Grouping for Large Scale Global
Optimization
- arxiv url: http://arxiv.org/abs/2206.04168v1
- Date: Wed, 8 Jun 2022 21:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 14:49:47.537941
- Title: Incremental Recursive Ranking Grouping for Large Scale Global
Optimization
- Title(参考訳): 大規模グローバル最適化のためのインクリメンタル再帰ランク付けグループ
- Authors: Marcin Michal Komarnicki, Michal Witold Przewozniczek, Halina
Kwasnicka
- Abstract要約: 大規模グローバル最適化(LSGO)では、問題は高次元である。
LSGO問題をサブプロブレムに分解し,個別に最適化することが有効であった。
多くの最先端分解戦略は微分グルーピング(DG)から導かれる。
本稿では,この欠陥に悩まされないインクリメンタル再帰的ランク付けグループ(IRRG)を提案する。
- 参考スコア(独自算出の注目度): 2.8360662552057323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world optimization problems may have a different underlying structure.
In black-box optimization, the dependencies between decision variables remain
unknown. However, some techniques can discover such interactions accurately. In
Large Scale Global Optimization (LSGO), problems are high-dimensional. It was
shown effective to decompose LSGO problems into subproblems and optimize them
separately. The effectiveness of such approaches may be highly dependent on the
accuracy of problem decomposition. Many state-of-the-art decomposition
strategies are derived from Differential Grouping (DG). However, if a given
problem consists of non-additively separable subproblems, their ability to
detect only true interactions might decrease significantly. Therefore, we
propose Incremental Recursive Ranking Grouping (IRRG) that does not suffer from
this flaw. IRRG consumes more fitness function evaluations than the recent
DG-based propositions, e.g., Recursive DG 3 (RDG3). Nevertheless, the
effectiveness of the considered Cooperative Co-evolution frameworks after
embedding IRRG or RDG3 was similar for problems with additively separable
subproblems that are suitable for RDG3. However, after replacing the additive
separability with non-additive, embedding IRRG leads to results of
significantly higher quality.
- Abstract(参考訳): 現実世界の最適化問題は、異なる基盤構造を持つ可能性がある。
ブラックボックス最適化では、決定変数間の依存関係は未知のままである。
しかし、そのような相互作用を正確に発見できる技法もある。
大規模グローバル最適化(LSGO)では、問題は高次元である。
LSGO問題をサブプロブレムに分解し,個別に最適化することが有効であった。
このようなアプローチの有効性は、問題分解の精度に大きく依存する可能性がある。
多くの最先端分解戦略は微分グルーピング(DG)から導かれる。
しかし、ある問題が非加法的に分離可能な部分問題からなる場合、真の相互作用のみを検出する能力は著しく減少する可能性がある。
そこで我々は,この欠陥に悩まされないインクリメンタル再帰的ランク付けグループ(IRRG)を提案する。
IRRGは、最近のDGベースの提案、例えばRecursive DG 3(RDG3)よりもフィットネス機能の評価を消費する。
それにもかかわらず、IRRGやRDG3を埋め込んだ後の協調的共進化フレームワークの有効性は、RDG3に適した付加的に分離可能なサブプロブレムの問題に類似していた。
しかし, 添加性分離性を非添加性に置き換えた結果, IRRGの埋込みは品質が著しく向上した。
関連論文リスト
- A Composite Decomposition Method for Large-Scale Global Optimization [30.040728803996256]
グループ化の効率性と精度は最適化プロセスの性能に大きく影響した。
本稿では,GSG法をシームレスに統合したCSG法を提案する。
CSGはGSGや最先端DGシリーズの設計と比較して計算量が少なく、より正確な変数グループ化を実現している。
論文 参考訳(メタデータ) (2024-03-02T12:12:04Z) - Enhancing Hypergradients Estimation: A Study of Preconditioning and
Reparameterization [49.73341101297818]
双レベル最適化は、内部最適化問題の解に依存する外的目的関数を最適化することを目的としている。
外部問題の過次性を計算する従来の方法は、Implicit Function Theorem (IFT) を使うことである。
IFT法の誤差について検討し,この誤差を低減するための2つの手法を解析した。
論文 参考訳(メタデータ) (2024-02-26T17:09:18Z) - AGRO: Adversarial Discovery of Error-prone groups for Robust
Optimization [109.91265884632239]
群分散ロバスト最適化(G-DRO)は、トレーニングデータに対する事前定義されたグループのセットに対する最悪の損失を最小限にすることができる。
本稿では、分散ロバスト最適化のためのAGRO -- Adversarial Group Discoveryを提案する。
AGROは、既知の最悪のグループの平均モデルパフォーマンスを8%向上させる。
論文 参考訳(メタデータ) (2022-12-02T00:57:03Z) - Non-Linear Coordination Graphs [22.29517436920317]
座標グラフ(CG)は、ペアのペイオフ関数を組み込んだ高次分解を表す。
CG値の分解を線形の場合を超えて拡張することにより、最初の非線形座標グラフを提案する。
提案手法は,MACOのようなマルチエージェント協調タスクにおいて,優れた性能を実現することができる。
論文 参考訳(メタデータ) (2022-10-26T18:11:31Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Effective Mutation Rate Adaptation through Group Elite Selection [50.88204196504888]
本稿では,GESMR(Group Elite Selection of Mutation Rates)アルゴリズムを提案する。
GESMRは解の集団とMRの集団を共進化させ、各MRは解群に割り当てられる。
同じ数の関数評価とオーバーヘッドのほとんどないGESMRは、以前のアプローチよりも早く、より良いソリューションに収束する。
論文 参考訳(メタデータ) (2022-04-11T01:08:26Z) - Flipping the switch on local exploration: Genetic Algorithms with
Reversals [0.0]
著者らは、勾配のない探索手法が離散領域における最適解を提供するのに適していることを示した。
また、複数のローカル検索を使用することで、ローカル検索のパフォーマンスが向上することを示した。
提案したGA変種は,提案した問題を含む全てのベンチマークにおいて,最小平均コストであり,ICが構成成分よりも優れた性能を発揮することが観察された。
論文 参考訳(メタデータ) (2022-02-02T08:27:11Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - A Surrogate-Assisted Variable Grouping Algorithm for General Large Scale
Global Optimization Problems [6.458244750197639]
本研究では,サロゲート支援可変グルーピング(SVG)と呼ばれる新しい分解アルゴリズムを提案する。
SVGはまず、変数の最適値が他の変数と変化するかどうかに応じて、一般的な分離性指向の検出基準を設計する。
原価の高い高次元モデルではなく、代用モデルの助けを借りて変数の最適性を求める。
論文 参考訳(メタデータ) (2021-01-19T02:57:44Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。