論文の概要: A Study of Genetic Algorithms for Hyperparameter Optimization of Neural
Networks in Machine Translation
- arxiv url: http://arxiv.org/abs/2009.08928v1
- Date: Tue, 15 Sep 2020 02:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:21:10.445412
- Title: A Study of Genetic Algorithms for Hyperparameter Optimization of Neural
Networks in Machine Translation
- Title(参考訳): 機械翻訳におけるニューラルネットワークのハイパーパラメータ最適化のための遺伝的アルゴリズムの検討
- Authors: Keshav Ganapathy
- Abstract要約: 遺伝的アルゴリズムを用いて,ダーウィンのファイトテスト理論の生存をモデルとした自動チューニング手法を提案する。
研究結果は,提案手法であるGAがハイパーパラメータのランダムな選択よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With neural networks having demonstrated their versatility and benefits, the
need for their optimal performance is as prevalent as ever. A defining
characteristic, hyperparameters, can greatly affect its performance. Thus
engineers go through a process, tuning, to identify and implement optimal
hyperparameters. That being said, excess amounts of manual effort are required
for tuning network architectures, training configurations, and preprocessing
settings such as Byte Pair Encoding (BPE). In this study, we propose an
automatic tuning method modeled after Darwin's Survival of the Fittest Theory
via a Genetic Algorithm (GA). Research results show that the proposed method, a
GA, outperforms a random selection of hyperparameters.
- Abstract(参考訳): ニューラルネットワークはその汎用性とメリットを実証しているため、最適なパフォーマンスの必要性は、かつてないほど一般的である。
定義特性であるハイパーパラメータは、その性能に大きな影響を与える。
したがって、エンジニアは最適なハイパーパラメータを特定し、実装するためのプロセス、チューニングを行う。
とはいえ、ネットワークアーキテクチャのチューニング、設定のトレーニング、バイトペアエンコーディング(bpe)のような前処理設定には、余分な手作業が必要となる。
本研究では,遺伝的アルゴリズム(GA)を用いたダーウィンのファイトテスト理論の生存をモデルとした自動チューニング手法を提案する。
その結果,提案手法であるgaはハイパーパラメータのランダム選択よりも優れていることがわかった。
関連論文リスト
- Deep Ranking Ensembles for Hyperparameter Optimization [9.453554184019108]
本稿では,メタ学習型ニューラルネットワークが構成性能のランク付けに最適化され,アンサンブルによる不確実性をモデル化する手法を提案する。
12のベースライン、16のHPO検索スペース、86のデータセット/タスクからなる大規模実験プロトコルにおいて、本手法がHPOの新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2023-03-27T13:52:40Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Automatic prior selection for meta Bayesian optimization with a case
study on tuning deep neural network optimizers [47.013395100497775]
このような高価なハイパーパラメータチューニング問題を効率的に解くための原理的アプローチを提案する。
BOの性能の鍵となるのは関数上の分布を指定および精製することであり、これは基礎となる関数の最適化を推論するために使われる。
我々は、一般的な画像やテキストデータセット上で、最先端に近いモデルの何万もの設定をトレーニングすることで、現実的なモデルトレーニング設定におけるアプローチを検証する。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - A Population-based Hybrid Approach to Hyperparameter Optimization for
Neural Networks [0.0]
HBRKGAは、Biased Random Key Genetic AlgorithmとRandom Walk技術を組み合わせて、ハイパーパラメータ空間を効率的に探索するハイブリッドアプローチである。
その結果、HBRKGAは8つのデータセットのうち6つにおいて、ベースライン法よりも優れたハイパーパラメータ構成を見つけることができた。
論文 参考訳(メタデータ) (2020-11-22T17:12:31Z) - Genetic-algorithm-optimized neural networks for gravitational wave
classification [0.0]
遺伝的アルゴリズム(GA)に基づくハイパーパラメータ最適化の新しい手法を提案する。
我々は,初期パラメータのシード値が良い解には程遠い場合に,GAが高品質なアーキテクチャを発見できることを示す。
遺伝的アルゴリズムの最適化を用いて既存のネットワークを洗練することは、問題コンテキストが変化した場合に特に有用である。
論文 参考訳(メタデータ) (2020-10-09T03:14:20Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - An Asymptotically Optimal Multi-Armed Bandit Algorithm and
Hyperparameter Optimization [48.5614138038673]
本稿では,高パラメータ探索評価のシナリオにおいて,SS (Sub-Sampling) と呼ばれる効率的で堅牢な帯域幅に基づくアルゴリズムを提案する。
また,BOSSと呼ばれる新しいパラメータ最適化アルゴリズムを開発した。
実験的な研究は、SSの理論的議論を検証し、多くのアプリケーションにおけるBOSSの優れた性能を実証する。
論文 参考訳(メタデータ) (2020-07-11T03:15:21Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。