論文の概要: Adaptive Structural Hyper-Parameter Configuration by Q-Learning
- arxiv url: http://arxiv.org/abs/2003.00863v1
- Date: Mon, 2 Mar 2020 13:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:03:42.831423
- Title: Adaptive Structural Hyper-Parameter Configuration by Q-Learning
- Title(参考訳): Q-Learningによる適応構造ハイパーパラメータ構成
- Authors: Haotian Zhang, Jianyong Sun and Zongben Xu
- Abstract要約: 進化的アルゴリズムの性能は、その操作戦略設計だけでなく、そのハイパーパラメータにも依存する。
本稿では,構造的ハイパーパラメータのチューニングを強化学習問題としてモデル化する最初の試みを行う。
CEC 2018テスト関数の勝者アルゴリズムに対して実験結果が好適であった。
- 参考スコア(独自算出の注目度): 28.88646928299302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tuning hyper-parameters for evolutionary algorithms is an important issue in
computational intelligence. Performance of an evolutionary algorithm depends
not only on its operation strategy design, but also on its hyper-parameters.
Hyper-parameters can be categorized in two dimensions as structural/numerical
and time-invariant/time-variant. Particularly, structural hyper-parameters in
existing studies are usually tuned in advance for time-invariant parameters, or
with hand-crafted scheduling for time-invariant parameters. In this paper, we
make the first attempt to model the tuning of structural hyper-parameters as a
reinforcement learning problem, and present to tune the structural
hyper-parameter which controls computational resource allocation in the CEC
2018 winner algorithm by Q-learning. Experimental results show favorably
against the winner algorithm on the CEC 2018 test functions.
- Abstract(参考訳): 進化的アルゴリズムのためのハイパーパラメータのチューニングは、計算知能において重要な問題である。
進化的アルゴリズムの性能は、その操作戦略設計だけでなく、ハイパーパラメータにも依存する。
超パラメータは2次元構造、数値、時間不変、時間不変に分類できる。
特に、既存の研究における構造的ハイパーパラメータは通常、時間不変パラメータや時間不変パラメータのハンドメイドスケジューリングのために前もって調整される。
本稿では,構造ハイパーパラメータのチューニングを強化学習問題としてモデル化する最初の試みを行い,cec 2018ウィナーアルゴリズムの計算資源割り当てを制御する構造ハイパーパラメータをq-learningによりチューニングする。
CEC 2018テスト関数の勝者アルゴリズムに対して実験結果が好適であった。
関連論文リスト
- ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - Robustness of Algorithms for Causal Structure Learning to Hyperparameter
Choice [2.3020018305241337]
ハイパーパラメータチューニングは、どんなアルゴリズムでも最先端と予測性能の低さを区別することができる。
本稿では,ハイパーパラメータ選択が因果構造学習タスクに及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-10-27T15:34:08Z) - Tuning structure learning algorithms with out-of-sample and resampling
strategies [6.85316573653194]
構造学習のためのサンプル外チューニングは、構造学習のための最適なハイパーパラメータ構成を推定するために、サンプル外および再サンプリング戦略を採用する。
OTSLを用いることで,最先端技術と比較してグラフィカルな精度が向上することを示す。
論文 参考訳(メタデータ) (2023-06-24T10:39:44Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Towards Robust and Automatic Hyper-Parameter Tunning [39.04604349338802]
我々は,新しいHPO法を導入し,畳み込みネットワークの中間層の低ランク因子分解を用いて解析応答面を定義する方法について検討する。
我々は,この表面がモデル性能の代理としてどのように振る舞うかを定量化し,オートHyperと呼ぶ信頼領域探索アルゴリズムを用いて解くことができる。
論文 参考訳(メタデータ) (2021-11-28T05:27:34Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Self-supervised learning for fast and scalable time series
hyper-parameter tuning [14.9124328578934]
時系列モデルのハイパーパラメータは時系列解析において重要な役割を果たす。
我々はHPT(SSL-HPT)のための自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-10T21:16:13Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。