論文の概要: GBO:AMulti-Granularity Optimization Algorithm via Granular-ball for Continuous Problems
- arxiv url: http://arxiv.org/abs/2303.12807v2
- Date: Tue, 18 Feb 2025 10:07:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 20:12:08.368998
- Title: GBO:AMulti-Granularity Optimization Algorithm via Granular-ball for Continuous Problems
- Title(参考訳): GBO:連続問題に対するグラニュラーボールによるAmulti-Granularity Optimizationアルゴリズム
- Authors: Shuyin Xia, Xinyu Lin, Guan Wang, De-Gang Chen, Sen Zhao, Guoyin Wang, Jing Liang,
- Abstract要約: 本稿では, グラニュラーボール最適化(GBO)アルゴリズムを新たに提案する。
最適化のために従来の点の代わりにグラニュラーボールを使用すると、ランダム検索プロセスの多様性とロバスト性が増大する。
一般的なベンチマークの実験では、GBOは一般的な進化的アルゴリズムや進化的アルゴリズムよりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 18.229944332377755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization problems aim to find the optimal solution, which is becoming increasingly complex and difficult to solve. Traditional evolutionary optimization methods always overlook the granular characteristics of solution space. In the real scenario of numerous optimizations, the solution space is typically partitioned into sub-regions characterized by varying degree distributions. These sub-regions present different granularity characteristics at search potential and difficulty. Considering the granular characteristics of the solution space, the number of coarse-grained regions is smaller than the number of points, so the calculation is more efficient. On the other hand, coarse-grained characteristics are not easily affected by fine-grained sample points, so the calculation is more robust. To this end, this paper proposes a new multi-granularity evolutionary optimization method, namely the Granular-ball Optimization (GBO) algorithm, which characterizes and searches the solution space from coarse to fine. Specifically, using granular-balls instead of traditional points for optimization increases the diversity and robustness of the random search process. At the same time, the search range in different iteration processes is limited by the radius of granular-balls, covering the solution space from large to small. The mechanism of granular-ball splitting is applied to continuously split and evolve the large granular-balls into smaller ones for refining the solution space. Extensive experiments on commonly used benchmarks have shown that GBO outperforms popular and advanced evolutionary algorithms. The code can be found in the supporting materials.
- Abstract(参考訳): 最適化問題は、ますます複雑で解決が難しい最適解を見つけることを目的としている。
従来の進化的最適化手法は、常に解空間の粒度の特性を見落としている。
多数の最適化の実際のシナリオでは、解空間は典型的に様々な次数分布によって特徴づけられる部分領域に分割される。
これらのサブリージョンは、探索電位と難易度において異なる粒度特性を示す。
解空間の粒度特性を考えると、粗粒領域の数は点の数より小さいので、計算はより効率的である。
一方, 粗粒度特性は微細な試料点の影響を受けにくいため, より堅牢である。
そこで本研究では, 粒界最適化(GBO)アルゴリズムを新たに提案し, 解空間を粗さから細さに特徴付け, 探索する手法を提案する。
具体的には、従来の最適化点の代わりにグラニュラーボールを使用することで、ランダム検索プロセスの多様性とロバスト性を高める。
同時に、異なる反復過程における探索範囲は粒度ボールの半径によって制限され、解空間を大から小にカバーする。
グラニュラーボール分割のメカニズムは、溶液空間を精製するために、大きなグラニュラーボールを連続的に分割し、より小さなものに進化させるのに応用される。
一般的なベンチマークでの大規模な実験により、GBOは一般的な進化的アルゴリズムや進化的アルゴリズムよりも優れていることが示されている。
コードは、サポート材料で見つけることができます。
関連論文リスト
- GBFRS: Robust Fuzzy Rough Sets via Granular-ball Computing [48.33779268699777]
ファジィ粗セット理論は複雑な属性を持つデータセットを処理するのに有効である。
既存のモデルのほとんどは最も細かい粒度で動作しており、非効率でノイズに敏感である。
本稿では,多粒度グラニュラーボール計算をファジィ粗集合理論に統合し,サンプル点の代替としてグラニュラーボールを提案する。
論文 参考訳(メタデータ) (2025-01-30T15:09:26Z) - Scalable Bayesian Optimization via Focalized Sparse Gaussian Processes [8.40647440727154]
我々は,より効率的な表現力を検索空間の関連領域に割り当てることのできる,疎いGPを用いたベイズ最適化アルゴリズムについて論じる。
本研究では,FocalBOが大量のオフラインおよびオンラインデータを効率よく活用し,ロボット形態学設計における最先端性能と585次元筋骨格系を制御できることを示す。
論文 参考訳(メタデータ) (2024-12-29T06:36:15Z) - Equitable and Fair Performance Evaluation of Whale Optimization
Algorithm [4.0814527055582746]
すべてのアルゴリズムは、徹底的に、幾分、知的に評価されることが不可欠である。
最適化アルゴリズムの有効性を等しく、公平に評価することは、様々な理由から簡単なプロセスではない。
論文 参考訳(メタデータ) (2023-09-04T06:32:02Z) - HomOpt: A Homotopy-Based Hyperparameter Optimization Method [10.11271414863925]
一般化加法モデル(GAM)とホモトピー最適化を組み合わせたデータ駆動型手法であるHomOptを提案する。
本稿では,HomOptが任意のメソッドの性能と有効性を向上し,連続離散およびカテゴリー領域空間上での最適収束を高速化する方法について述べる。
論文 参考訳(メタデータ) (2023-08-07T06:01:50Z) - Accelerated Distributed Aggregative Optimization [5.5491171448159715]
本稿では,分散集約最適化問題の解法として,DAGT-HBとDAGT-NESという2つの新しいアルゴリズムを提案する。
DAGT-HBとDAGT-NESのアルゴリズムは、大域的な$mathbfR-$linear収束率で最適解に収束できる。
論文 参考訳(メタデータ) (2023-04-17T08:11:01Z) - Improving Performance Insensitivity of Large-scale Multiobjective
Optimization via Monte Carlo Tree Search [7.34812867861951]
モンテカルロ木探索に基づく大規模多目的最適化問題の解法を提案する。
提案手法は,モンテカルロ木上に新たなノードを構築するための決定変数をサンプリングし,最適化と評価を行う。
大規模な決定変数による性能感度を低下させるために、さらなる探索のための評価が良いノードを選択する。
論文 参考訳(メタデータ) (2023-04-08T17:15:49Z) - Research on Efficient Fuzzy Clustering Method Based on Local Fuzzy
Granular balls [67.33923111887933]
本稿では,データをグラニュラーボールを用いてファジィにイテレーションし,その位置にある2つのグラニュラーボールのみをデータのメンバーシップ度として検討する。
ファジィグラニュラーボールセットは、異なるデータシナリオに直面して、より多くの処理方法を使用することができる。
論文 参考訳(メタデータ) (2023-03-07T01:52:55Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - An Improved Greedy Algorithm for Subset Selection in Linear Estimation [5.994412766684842]
有限個の予測位置において、観測値の最もよい推定値を与えるような k 個の位置の集合を求める空間場における部分選択問題を考える。
観測選択の1つのアプローチは、空間の格子離散化を行い、グリードアルゴリズムを用いて近似解を得ることである。
本稿では,予測位置と予測位置によって形成される傾斜角の遠心点のみからなる探索空間を考慮し,計算複雑性を低減する手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:52:16Z) - Recommender System Expedited Quantum Control Optimization [0.0]
量子制御最適化アルゴリズムは、最適な量子ゲートや効率的な量子状態転送を生成するために日常的に使用される。
効率的な最適化アルゴリズムの設計には2つの大きな課題がある。
本稿では,後者の課題に対処するため,機械学習手法,特にレコメンダシステム(RS)を提案する。
論文 参考訳(メタデータ) (2022-01-29T10:25:41Z) - Density-Based Clustering with Kernel Diffusion [59.4179549482505]
単位$d$次元ユークリッド球のインジケータ関数に対応するナイーブ密度は、密度に基づくクラスタリングアルゴリズムで一般的に使用される。
局所分布特性と滑らかさの異なるデータに適応する新しいカーネル拡散密度関数を提案する。
論文 参考訳(メタデータ) (2021-10-11T09:00:33Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models [86.29330440222199]
ILOは、深層生成モデルを用いて逆問題を解決するための新しい最適化アルゴリズムである。
提案手法は,StyleGAN-2 や PULSE で導入した最先端手法よりも幅広い逆問題に対して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-15T06:52:22Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Bayesian Variational Optimization for Combinatorial Spaces [0.0]
幅広い応用としては、分子、タンパク質、DNA、デバイス構造、量子回路の設計などが挙げられる。
最適解や最適解を見つけるためには、圏空間上の最適化が不可欠である。
本稿では,変分最適化と連続緩和を組み合わせた変分ベイズ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T20:56:13Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。