論文の概要: Granular-ball Optimization Algorithm
- arxiv url: http://arxiv.org/abs/2303.12807v1
- Date: Sat, 18 Mar 2023 13:18:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-03-25 02:42:37.930545
- Title: Granular-ball Optimization Algorithm
- Title(参考訳): グラニュラーボール最適化アルゴリズム
- Authors: Shuyin Xia, Jiancu Chen, Bin Hou, Guoyin Wang
- Abstract要約: 微細な多粒性データ記述能力により、よりグローバルな検索能力とより高速な収束速度が得られる。
最も人気があり最先端のアルゴリズムと比較して、20個のベンチマーク関数の実験は、その性能を実証している。
- 参考スコア(独自算出の注目度): 6.058433576739089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing intelligent optimization algorithms are designed based on the
finest granularity, i.e., a point. This leads to weak global search ability and
inefficiency. To address this problem, we proposed a novel multi-granularity
optimization algorithm, namely granular-ball optimization algorithm (GBO), by
introducing granular-ball computing. GBO uses many granular-balls to cover the
solution space. Quite a lot of small and fine-grained granular-balls are used
to depict the important parts, and a little number of large and coarse-grained
granular-balls are used to depict the inessential parts. Fine multi-granularity
data description ability results in a higher global search capability and
faster convergence speed. In comparison with the most popular and
state-of-the-art algorithms, the experiments on twenty benchmark functions
demonstrate its better performance. The faster speed, higher approximation
ability of optimal solution, no hyper-parameters, and simpler design of GBO
make it an all-around replacement of most of the existing popular intelligent
optimization algorithms.
- Abstract(参考訳): 既存のインテリジェント最適化アルゴリズムは、最も細かい粒度、すなわち点に基づいて設計されている。
これにより、グローバルな検索能力と非効率性が弱まる。
そこで本研究では,粒度最適化アルゴリズムである粒度ボール最適化アルゴリズム(gbo)を提案する。
GBOは、解空間をカバーするために多くの粒状ボールを使用する。
重要部分を描写するためには、小粒径のグラニュラーボールがかなり多く使われ、大粒のグラニュラーボールと粗粒のグラニュラーボールがわずかに数個使用されている。
精巧なマルチグラニュラ性データ記述能力により、グローバル検索能力が向上し、コンバージェンス速度が速くなる。
最もポピュラーで最先端のアルゴリズムと比較して、20のベンチマーク関数の実験は、その優れた性能を示している。
高速、高速、高速な最適解の近似能力、超パラメータなし、GBOのよりシンプルな設計により、既存の知能最適化アルゴリズムのほとんどを置き換えることができる。
関連論文リスト
- GBFRS: Robust Fuzzy Rough Sets via Granular-ball Computing [48.33779268699777]
ファジィ粗セット理論は複雑な属性を持つデータセットを処理するのに有効である。
既存のモデルのほとんどは最も細かい粒度で動作しており、非効率でノイズに敏感である。
本稿では,多粒度グラニュラーボール計算をファジィ粗集合理論に統合し,サンプル点の代替としてグラニュラーボールを提案する。
論文 参考訳(メタデータ) (2025-01-30T15:09:26Z) - Scalable Bayesian Optimization via Focalized Sparse Gaussian Processes [8.40647440727154]
我々は,より効率的な表現力を検索空間の関連領域に割り当てることのできる,疎いGPを用いたベイズ最適化アルゴリズムについて論じる。
本研究では,FocalBOが大量のオフラインおよびオンラインデータを効率よく活用し,ロボット形態学設計における最先端性能と585次元筋骨格系を制御できることを示す。
論文 参考訳(メタデータ) (2024-12-29T06:36:15Z) - Equitable and Fair Performance Evaluation of Whale Optimization
Algorithm [4.0814527055582746]
すべてのアルゴリズムは、徹底的に、幾分、知的に評価されることが不可欠である。
最適化アルゴリズムの有効性を等しく、公平に評価することは、様々な理由から簡単なプロセスではない。
論文 参考訳(メタデータ) (2023-09-04T06:32:02Z) - HomOpt: A Homotopy-Based Hyperparameter Optimization Method [10.11271414863925]
一般化加法モデル(GAM)とホモトピー最適化を組み合わせたデータ駆動型手法であるHomOptを提案する。
本稿では,HomOptが任意のメソッドの性能と有効性を向上し,連続離散およびカテゴリー領域空間上での最適収束を高速化する方法について述べる。
論文 参考訳(メタデータ) (2023-08-07T06:01:50Z) - Accelerated Distributed Aggregative Optimization [5.5491171448159715]
本稿では,分散集約最適化問題の解法として,DAGT-HBとDAGT-NESという2つの新しいアルゴリズムを提案する。
DAGT-HBとDAGT-NESのアルゴリズムは、大域的な$mathbfR-$linear収束率で最適解に収束できる。
論文 参考訳(メタデータ) (2023-04-17T08:11:01Z) - Improving Performance Insensitivity of Large-scale Multiobjective
Optimization via Monte Carlo Tree Search [7.34812867861951]
モンテカルロ木探索に基づく大規模多目的最適化問題の解法を提案する。
提案手法は,モンテカルロ木上に新たなノードを構築するための決定変数をサンプリングし,最適化と評価を行う。
大規模な決定変数による性能感度を低下させるために、さらなる探索のための評価が良いノードを選択する。
論文 参考訳(メタデータ) (2023-04-08T17:15:49Z) - Research on Efficient Fuzzy Clustering Method Based on Local Fuzzy
Granular balls [67.33923111887933]
本稿では,データをグラニュラーボールを用いてファジィにイテレーションし,その位置にある2つのグラニュラーボールのみをデータのメンバーシップ度として検討する。
ファジィグラニュラーボールセットは、異なるデータシナリオに直面して、より多くの処理方法を使用することができる。
論文 参考訳(メタデータ) (2023-03-07T01:52:55Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - An Improved Greedy Algorithm for Subset Selection in Linear Estimation [5.994412766684842]
有限個の予測位置において、観測値の最もよい推定値を与えるような k 個の位置の集合を求める空間場における部分選択問題を考える。
観測選択の1つのアプローチは、空間の格子離散化を行い、グリードアルゴリズムを用いて近似解を得ることである。
本稿では,予測位置と予測位置によって形成される傾斜角の遠心点のみからなる探索空間を考慮し,計算複雑性を低減する手法を提案する。
論文 参考訳(メタデータ) (2022-03-30T05:52:16Z) - Recommender System Expedited Quantum Control Optimization [0.0]
量子制御最適化アルゴリズムは、最適な量子ゲートや効率的な量子状態転送を生成するために日常的に使用される。
効率的な最適化アルゴリズムの設計には2つの大きな課題がある。
本稿では,後者の課題に対処するため,機械学習手法,特にレコメンダシステム(RS)を提案する。
論文 参考訳(メタデータ) (2022-01-29T10:25:41Z) - Density-Based Clustering with Kernel Diffusion [59.4179549482505]
単位$d$次元ユークリッド球のインジケータ関数に対応するナイーブ密度は、密度に基づくクラスタリングアルゴリズムで一般的に使用される。
局所分布特性と滑らかさの異なるデータに適応する新しいカーネル拡散密度関数を提案する。
論文 参考訳(メタデータ) (2021-10-11T09:00:33Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Intermediate Layer Optimization for Inverse Problems using Deep
Generative Models [86.29330440222199]
ILOは、深層生成モデルを用いて逆問題を解決するための新しい最適化アルゴリズムである。
提案手法は,StyleGAN-2 や PULSE で導入した最先端手法よりも幅広い逆問題に対して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-15T06:52:22Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Bayesian Variational Optimization for Combinatorial Spaces [0.0]
幅広い応用としては、分子、タンパク質、DNA、デバイス構造、量子回路の設計などが挙げられる。
最適解や最適解を見つけるためには、圏空間上の最適化が不可欠である。
本稿では,変分最適化と連続緩和を組み合わせた変分ベイズ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T20:56:13Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Sub-linear Regret Bounds for Bayesian Optimisation in Unknown Search
Spaces [63.22864716473051]
本稿では,反復により探索空間を拡大(およびシフト)する新しいBOアルゴリズムを提案する。
理論的には、どちらのアルゴリズムにおいても、累積的後悔は線形以下の速度で増大する。
論文 参考訳(メタデータ) (2020-09-05T14:24:40Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。