論文の概要: OptABC: an Optimal Hyperparameter Tuning Approach for Machine Learning
Algorithms
- arxiv url: http://arxiv.org/abs/2112.08511v1
- Date: Wed, 15 Dec 2021 22:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 16:25:50.586188
- Title: OptABC: an Optimal Hyperparameter Tuning Approach for Machine Learning
Algorithms
- Title(参考訳): OptABC: 機械学習アルゴリズムのための最適ハイパーパラメータチューニングアプローチ
- Authors: Leila Zahedi, Farid Ghareh Mohammadi, M. Hadi Amini
- Abstract要約: OptABCは、ABCアルゴリズムがほぼ最適解へのより高速な収束を支援するために提案されている。
OptABCは、人工蜂コロニーアルゴリズム、K-Meansクラスタリング、greedyアルゴリズム、および反対ベースの学習戦略を統合している。
実験結果から,OptABCの有効性が文献の既存手法と比較された。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hyperparameter tuning in machine learning algorithms is a computationally
challenging task due to the large-scale nature of the problem. In order to
develop an efficient strategy for hyper-parameter tuning, one promising
solution is to use swarm intelligence algorithms. Artificial Bee Colony (ABC)
optimization lends itself as a promising and efficient optimization algorithm
for this purpose. However, in some cases, ABC can suffer from a slow
convergence rate or execution time due to the poor initial population of
solutions and expensive objective functions. To address these concerns, a novel
algorithm, OptABC, is proposed to help ABC algorithm in faster convergence
toward a near-optimum solution. OptABC integrates artificial bee colony
algorithm, K-Means clustering, greedy algorithm, and opposition-based learning
strategy for tuning the hyper-parameters of different machine learning models.
OptABC employs these techniques in an attempt to diversify the initial
population, and hence enhance the convergence ability without significantly
decreasing the accuracy. In order to validate the performance of the proposed
method, we compare the results with previous state-of-the-art approaches.
Experimental results demonstrate the effectiveness of the OptABC compared to
existing approaches in the literature.
- Abstract(参考訳): 機械学習アルゴリズムにおけるハイパーパラメータチューニングは、問題の大規模な性質のために計算的に難しいタスクである。
超パラメータチューニングのための効率的な戦略を開発するためには、Swarmインテリジェンスアルゴリズムを使用することが期待できる。
人工ビーコロニー(ABC)最適化はこの目的のために有望かつ効率的な最適化アルゴリズムである。
しかし、いくつかのケースでは、ABCは解の初期人口や高価な目的関数が不足しているため、収束速度や実行時間が遅い。
これらの問題に対処するため、ABCアルゴリズムがほぼ最適解への高速収束を支援するために、新しいアルゴリズムであるOptABCが提案されている。
optabcは、異なる機械学習モデルのハイパーパラメータをチューニングするために、人工蜂コロニーアルゴリズム、k平均クラスタリング、欲望アルゴリズム、および反対ベースの学習戦略を統合する。
optabcはこれらの技術を用いて初期人口を多様化させ、精度を著しく低下させることなく収束能力を高める。
提案手法の性能を検証するために,従来の最先端手法との比較を行った。
実験の結果,OptABCの有効性が文献の既存手法と比較された。
関連論文リスト
- Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Hybrid ACO-CI Algorithm for Beam Design problems [0.4397520291340694]
The novel hybrid version of the Ant colony optimization (ACO) method was developed using the sample space reduction technique of the Cohort Intelligence (CI) algorithm。
提案した研究は、工学領域や医療問題を含む現実世界の応用について検討することができる。
論文 参考訳(メタデータ) (2023-03-29T04:37:14Z) - Enhancing Machine Learning Model Performance with Hyper Parameter
Optimization: A Comparative Study [0.0]
機械学習における最も重要な問題のひとつは、トレーニングモデルに適切なハイパーパラメータの選択である。
ハイパーパラメータ最適化(HPO)は、人工知能研究が最近注目している話題である。
本研究では,グリッドやランダム探索,ベイズ最適化などの古典的手法,遺伝的アルゴリズムや粒子群最適化といった人口ベースアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2023-02-14T10:12:10Z) - Introductory Studies of Swarm Intelligence Techniques [1.2930503923129208]
群れ知能は、個体の集団的研究と、群れの知的行動につながる相互相互作用を含む。
この章では、様々な人口ベースのSIアルゴリズム、基本構造、数学的モデルについて紹介している。
論文 参考訳(メタデータ) (2022-09-26T16:29:55Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Improved Binary Artificial Bee Colony Algorithm [0.0]
Artificial Bee Colony (ABC)アルゴリズムは、Swarmインテリジェンスに基づく進化的最適化アルゴリズムである。
我々はABCアルゴリズムを改良してバイナリ最適化問題を解き、それを改良されたバイナリ・ビーコロニー (ibinABC) と呼ぶ。
提案手法は,適合度値に基づく更新機構と,異なる数の決定変数の処理により構成される。
論文 参考訳(メタデータ) (2020-03-12T17:22:52Z) - Extreme Algorithm Selection With Dyadic Feature Representation [78.13985819417974]
我々は,数千の候補アルゴリズムの固定セットを考慮に入れた,極端なアルゴリズム選択(XAS)の設定を提案する。
我々は、XAS設定に対する最先端のAS技術の適用性を評価し、Dyadic特徴表現を利用したアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-29T09:40:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。