論文の概要: Hyperparameter Selection for Subsampling Bootstraps
- arxiv url: http://arxiv.org/abs/2006.01786v2
- Date: Thu, 13 Jan 2022 07:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 01:04:54.831696
- Title: Hyperparameter Selection for Subsampling Bootstraps
- Title(参考訳): サブサンプリングブートストラップのハイパーパラメータ選択
- Authors: Yingying Ma and Hansheng Wang
- Abstract要約: BLBのようなサブサンプリング手法は、大量のデータに対する推定器の品質を評価する強力なツールとして機能する。
サブサンプリング法の性能は,チューニングパラメータの選択によって大きく影響を受ける。
本研究では,サブサンプリング手法のチューニングパラメータの選択に利用できるハイパーパラメータ選択手法を開発した。
シミュレーション研究と実データ解析の両方が,本手法の優位性を証明している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Massive data analysis becomes increasingly prevalent, subsampling methods
like BLB (Bag of Little Bootstraps) serves as powerful tools for assessing the
quality of estimators for massive data. However, the performance of the
subsampling methods are highly influenced by the selection of tuning parameters
( e.g., the subset size, number of resamples per subset ). In this article we
develop a hyperparameter selection methodology, which can be used to select
tuning parameters for subsampling methods. Specifically, by a careful
theoretical analysis, we find an analytically simple and elegant relationship
between the asymptotic efficiency of various subsampling estimators and their
hyperparameters. This leads to an optimal choice of the hyperparameters. More
specifically, for an arbitrarily specified hyperparameter set, we can improve
it to be a new set of hyperparameters with no extra CPU time cost, but the
resulting estimator's statistical efficiency can be much improved. Both
simulation studies and real data analysis demonstrate the superior advantage of
our method.
- Abstract(参考訳): blb(bag of little bootstrap)のようなサブサンプリング手法は、大規模なデータに対する推定器の品質を評価するための強力なツールとして役立ちます。
しかし、サブサンプリング法の性能は、チューニングパラメータの選択(例えば、サブセットサイズ、サブセット当たりのリサンプル数など)に大きく影響される。
本稿では,サブサンプリング手法のチューニングパラメータの選択に使用可能なハイパーパラメータ選択手法を提案する。
具体的には、慎重な理論的解析により、様々なサブサンプリング推定器の漸近効率とハイパーパラメータの関係を解析的に単純かつエレガントに求める。
これにより、ハイパーパラメータが最適選択される。
より具体的には、任意に指定されたハイパーパラメータセットに対して、CPUの時間外コストを伴わずに新しいハイパーパラメータセットとして改善することができるが、結果として得られる推定器の統計的効率は大幅に改善できる。
シミュレーション研究と実データ解析の両方が,本手法の優位性を示している。
関連論文リスト
- Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Data-oriented Dynamic Fine-tuning Parameter Selection Strategy for FISH
Mask based Efficient Fine-tuning [9.423534576254712]
FISH Maskのサンプルパラメータ対の最適設定を探索するIRDアルゴリズムを提案する。
GLUEベンチマークを用いて提案手法の有効性と合理性を示す。
論文 参考訳(メタデータ) (2024-03-13T12:50:23Z) - Efficient and Robust Bayesian Selection of Hyperparameters in Dimension
Reduction for Visualization [0.0]
本稿では,次元減少(DR)アルゴリズムにおけるハイパーパラメータ選択のための,効率的かつ堅牢な自動チューニングフレームワークを提案する。
提案手法により,多目的トレードオフを用いた効率的なハイパーパラメータ選択が可能となり,データ駆動分析が可能となった。
我々は,複数の品質指標を用いて,様々な合成および実世界のデータセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-06-01T05:36:22Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Automatic prior selection for meta Bayesian optimization with a case
study on tuning deep neural network optimizers [47.013395100497775]
このような高価なハイパーパラメータチューニング問題を効率的に解くための原理的アプローチを提案する。
BOの性能の鍵となるのは関数上の分布を指定および精製することであり、これは基礎となる関数の最適化を推論するために使われる。
我々は、一般的な画像やテキストデータセット上で、最先端に近いモデルの何万もの設定をトレーニングすることで、現実的なモデルトレーニング設定におけるアプローチを検証する。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z) - An Asymptotically Optimal Multi-Armed Bandit Algorithm and
Hyperparameter Optimization [48.5614138038673]
本稿では,高パラメータ探索評価のシナリオにおいて,SS (Sub-Sampling) と呼ばれる効率的で堅牢な帯域幅に基づくアルゴリズムを提案する。
また,BOSSと呼ばれる新しいパラメータ最適化アルゴリズムを開発した。
実験的な研究は、SSの理論的議論を検証し、多くのアプリケーションにおけるBOSSの優れた性能を実証する。
論文 参考訳(メタデータ) (2020-07-11T03:15:21Z) - Automatic Setting of DNN Hyper-Parameters by Mixing Bayesian
Optimization and Tuning Rules [0.6875312133832078]
トレーニングおよび検証セット上で,ネットワークの結果を評価し解析するための新しいアルゴリズムを構築した。
我々は、一連のチューニングルールを使用して、新しいハイパーパラメータと/またはハイパーパラメータ検索スペースを減らし、より良い組み合わせを選択する。
論文 参考訳(メタデータ) (2020-06-03T08:53:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。