論文の概要: GBO:AMulti-Granularity Optimization Algorithm via Granular-ball for Continuous Problems
- arxiv url: http://arxiv.org/abs/2303.12807v2
- Date: Tue, 18 Feb 2025 10:07:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:00.269232
- Title: GBO:AMulti-Granularity Optimization Algorithm via Granular-ball for Continuous Problems
- Title(参考訳): GBO:連続問題に対するグラニュラーボールによるAmulti-Granularity Optimizationアルゴリズム
- Authors: Shuyin Xia, Xinyu Lin, Guan Wang, De-Gang Chen, Sen Zhao, Guoyin Wang, Jing Liang,
- Abstract要約: 本稿では, グラニュラーボール最適化(GBO)アルゴリズムを新たに提案する。
最適化のために従来の点の代わりにグラニュラーボールを使用すると、ランダム検索プロセスの多様性とロバスト性が増大する。
一般的なベンチマークの実験では、GBOは一般的な進化的アルゴリズムや進化的アルゴリズムよりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 18.229944332377755
- License:
- Abstract: Optimization problems aim to find the optimal solution, which is becoming increasingly complex and difficult to solve. Traditional evolutionary optimization methods always overlook the granular characteristics of solution space. In the real scenario of numerous optimizations, the solution space is typically partitioned into sub-regions characterized by varying degree distributions. These sub-regions present different granularity characteristics at search potential and difficulty. Considering the granular characteristics of the solution space, the number of coarse-grained regions is smaller than the number of points, so the calculation is more efficient. On the other hand, coarse-grained characteristics are not easily affected by fine-grained sample points, so the calculation is more robust. To this end, this paper proposes a new multi-granularity evolutionary optimization method, namely the Granular-ball Optimization (GBO) algorithm, which characterizes and searches the solution space from coarse to fine. Specifically, using granular-balls instead of traditional points for optimization increases the diversity and robustness of the random search process. At the same time, the search range in different iteration processes is limited by the radius of granular-balls, covering the solution space from large to small. The mechanism of granular-ball splitting is applied to continuously split and evolve the large granular-balls into smaller ones for refining the solution space. Extensive experiments on commonly used benchmarks have shown that GBO outperforms popular and advanced evolutionary algorithms. The code can be found in the supporting materials.
- Abstract(参考訳): 最適化問題は、ますます複雑で解決が難しい最適解を見つけることを目的としている。
従来の進化的最適化手法は、常に解空間の粒度の特性を見落としている。
多数の最適化の実際のシナリオでは、解空間は典型的に様々な次数分布によって特徴づけられる部分領域に分割される。
これらのサブリージョンは、探索電位と難易度において異なる粒度特性を示す。
解空間の粒度特性を考えると、粗粒領域の数は点の数より小さいので、計算はより効率的である。
一方, 粗粒度特性は微細な試料点の影響を受けにくいため, より堅牢である。
そこで本研究では, 粒界最適化(GBO)アルゴリズムを新たに提案し, 解空間を粗さから細さに特徴付け, 探索する手法を提案する。
具体的には、従来の最適化点の代わりにグラニュラーボールを使用することで、ランダム検索プロセスの多様性とロバスト性を高める。
同時に、異なる反復過程における探索範囲は粒度ボールの半径によって制限され、解空間を大から小にカバーする。
グラニュラーボール分割のメカニズムは、溶液空間を精製するために、大きなグラニュラーボールを連続的に分割し、より小さなものに進化させるのに応用される。
一般的なベンチマークでの大規模な実験により、GBOは一般的な進化的アルゴリズムや進化的アルゴリズムよりも優れていることが示されている。
コードは、サポート材料で見つけることができます。
関連論文リスト
- Equitable and Fair Performance Evaluation of Whale Optimization
Algorithm [4.0814527055582746]
すべてのアルゴリズムは、徹底的に、幾分、知的に評価されることが不可欠である。
最適化アルゴリズムの有効性を等しく、公平に評価することは、様々な理由から簡単なプロセスではない。
論文 参考訳(メタデータ) (2023-09-04T06:32:02Z) - HomOpt: A Homotopy-Based Hyperparameter Optimization Method [10.11271414863925]
一般化加法モデル(GAM)とホモトピー最適化を組み合わせたデータ駆動型手法であるHomOptを提案する。
本稿では,HomOptが任意のメソッドの性能と有効性を向上し,連続離散およびカテゴリー領域空間上での最適収束を高速化する方法について述べる。
論文 参考訳(メタデータ) (2023-08-07T06:01:50Z) - Improving Performance Insensitivity of Large-scale Multiobjective
Optimization via Monte Carlo Tree Search [7.34812867861951]
モンテカルロ木探索に基づく大規模多目的最適化問題の解法を提案する。
提案手法は,モンテカルロ木上に新たなノードを構築するための決定変数をサンプリングし,最適化と評価を行う。
大規模な決定変数による性能感度を低下させるために、さらなる探索のための評価が良いノードを選択する。
論文 参考訳(メタデータ) (2023-04-08T17:15:49Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Recommender System Expedited Quantum Control Optimization [0.0]
量子制御最適化アルゴリズムは、最適な量子ゲートや効率的な量子状態転送を生成するために日常的に使用される。
効率的な最適化アルゴリズムの設計には2つの大きな課題がある。
本稿では,後者の課題に対処するため,機械学習手法,特にレコメンダシステム(RS)を提案する。
論文 参考訳(メタデータ) (2022-01-29T10:25:41Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。