論文の概要: Hyperparameter Ensembles for Robustness and Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2006.13570v3
- Date: Fri, 8 Jan 2021 12:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:24:20.568098
- Title: Hyperparameter Ensembles for Robustness and Uncertainty Quantification
- Title(参考訳): 高パラメータアンサンブルによるロバストネスと不確かさの定量化
- Authors: Florian Wenzel, Jasper Snoek, Dustin Tran, Rodolphe Jenatton
- Abstract要約: ディープアンサンブルとして知られる、異なるランダム初期化からトレーニングされたニューラルネットワーク重量に対するアンサンブルは、最先端の精度とキャリブレーションを達成する。
最近導入されたバッチアンサンブルは、よりパラメータ効率の良いドロップイン置換を提供する。
本稿では,重み以上のアンサンブルを設計し,両方の設定におけるアートの状態を改善するために,ハイパーパラメータを超越したアンサンブルを設計する。
- 参考スコア(独自算出の注目度): 32.56745402836596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensembles over neural network weights trained from different random
initialization, known as deep ensembles, achieve state-of-the-art accuracy and
calibration. The recently introduced batch ensembles provide a drop-in
replacement that is more parameter efficient. In this paper, we design
ensembles not only over weights, but over hyperparameters to improve the state
of the art in both settings. For best performance independent of budget, we
propose hyper-deep ensembles, a simple procedure that involves a random search
over different hyperparameters, themselves stratified across multiple random
initializations. Its strong performance highlights the benefit of combining
models with both weight and hyperparameter diversity. We further propose a
parameter efficient version, hyper-batch ensembles, which builds on the layer
structure of batch ensembles and self-tuning networks. The computational and
memory costs of our method are notably lower than typical ensembles. On image
classification tasks, with MLP, LeNet, ResNet 20 and Wide ResNet 28-10
architectures, we improve upon both deep and batch ensembles.
- Abstract(参考訳): ディープアンサンブルとして知られる、異なるランダム初期化からトレーニングされたニューラルネットワーク重量に対するアンサンブルは、最先端の精度とキャリブレーションを達成する。
最近導入されたバッチアンサンブルは、よりパラメータ効率の良いドロップイン置換を提供する。
本稿では,重みだけでなくハイパーパラメータでもアンサンブルを設計し,両方の設定におけるアートの状態を改善する。
予算によらず最高の性能を得るために,複数の超パラメータをランダムに探索する単純な手順であるハイパーディープアンサンブルを提案する。
その強力なパフォーマンスは、重量とハイパーパラメータの多様性の両方でモデルを組み合わせる利点を強調している。
さらに,バッチアンサンブルと自己調整ネットワークの層構造に基づいて,パラメータ効率の良いハイパーバッチアンサンブルを提案する。
本手法の計算とメモリコストは,典型的なアンサンブルよりも著しく低い。
MLP, LeNet, ResNet 20, Wide ResNet 28-10 アーキテクチャによる画像分類タスクでは,ディープアンサンブルとバッチアンサンブルの両方を改善した。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Parameter Optimization with Conscious Allocation (POCA) [4.478575931884855]
ハイパーバンドベースの機械学習アプローチが最も効果的である。
私たちは出席します。
新人
Conscious Allocation (POCA) は、入力を適応的に割り当てるハイパーバンドベースのアルゴリズムである。
ハイパーパラメータの構成に予算を割り当てます
POCAは、両方の設定で強い設定を高速に見つける。
論文 参考訳(メタデータ) (2023-12-29T00:13:55Z) - Learning to Compose SuperWeights for Neural Parameter Allocation Search [61.078949532440724]
提案手法は,同じ重み集合を用いて多くのネットワークに対してパラメータを生成することができることを示す。
これにより、効率的なアンサンブルや、いつでも予測できるようなタスクをサポートできます。
論文 参考訳(メタデータ) (2023-12-03T04:20:02Z) - AdaLoRA: Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning [143.23123791557245]
下流タスクで訓練済みの大規模言語モデルを微調整することは、NLPにおいて重要なパラダイムとなっている。
重み行列のパラメータ予算をその重要度に応じて適応的に割り当てるAdaLoRAを提案する。
我々は,AdaLoRAの有効性を検証するために,自然言語処理,質問応答,自然言語生成に関する事前学習モデルを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-03-18T22:36:25Z) - Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Supervising the Multi-Fidelity Race of Hyperparameter Configurations [22.408069485293666]
我々はベイズ最適化手法であるDyHPOを導入し、どのハイパーパラメータ構成を、実現可能な構成のレースでさらに訓練するかを学習する。
大規模実験による最先端ハイパーパラメータ最適化手法に対するDyHPOの顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-02-20T10:28:02Z) - Automatic Mixed-Precision Quantization Search of BERT [62.65905462141319]
BERTのような事前訓練された言語モデルは、様々な自然言語処理タスクにおいて顕著な効果を示している。
これらのモデルは通常、数百万のパラメータを含んでおり、リソースに制約のあるデバイスへの実践的なデプロイを妨げている。
本稿では,サブグループレベルでの量子化とプルーニングを同時に行うことができるBERT用に設計された混合精密量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-30T06:32:47Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z) - Weighted Random Search for CNN Hyperparameter Optimization [0.0]
本稿では、ランダム探索(RS)と確率的欲求を組み合わせた重み付きランダム探索(WRS)手法を提案する。
基準は、ハイパーパラメーター値の試験された組み合わせの同じ数内で達成される分類精度である。
我々の実験によると、WRSアルゴリズムは他の手法よりも優れています。
論文 参考訳(メタデータ) (2020-03-30T09:40:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。