論文の概要: Overtuning in Hyperparameter Optimization
- arxiv url: http://arxiv.org/abs/2506.19540v1
- Date: Tue, 24 Jun 2025 11:49:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.613081
- Title: Overtuning in Hyperparameter Optimization
- Title(参考訳): ハイパーパラメータ最適化におけるオーバーチューニング
- Authors: Lennart Schneider, Bernd Bischl, Matthias Feurer,
- Abstract要約: オーバーチューニングの正式な定義を提供し、メタオーバーフィッティングのような関連する概念と区別する。
我々はHPOベンチマークデータを大規模に再解析し、オーバーチューニングの頻度と重症度を評価する。
以上の結果から,オーバーチューニングは従来想定されていたよりも一般的であり,通常は軽度であるが,時には重度であることが明らかとなった。
- 参考スコア(独自算出の注目度): 11.91482877988017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperparameter optimization (HPO) aims to identify an optimal hyperparameter configuration (HPC) such that the resulting model generalizes well to unseen data. As the expected generalization error cannot be optimized directly, it is estimated with a resampling strategy, such as holdout or cross-validation. This approach implicitly assumes that minimizing the validation error leads to improved generalization. However, since validation error estimates are inherently stochastic and depend on the resampling strategy, a natural question arises: Can excessive optimization of the validation error lead to overfitting at the HPO level, akin to overfitting in model training based on empirical risk minimization? In this paper, we investigate this phenomenon, which we term overtuning, a form of overfitting specific to HPO. Despite its practical relevance, overtuning has received limited attention in the HPO and AutoML literature. We provide a formal definition of overtuning and distinguish it from related concepts such as meta-overfitting. We then conduct a large-scale reanalysis of HPO benchmark data to assess the prevalence and severity of overtuning. Our results show that overtuning is more common than previously assumed, typically mild but occasionally severe. In approximately 10% of cases, overtuning leads to the selection of a seemingly optimal HPC with worse generalization error than the default or first configuration tried. We further analyze how factors such as performance metric, resampling strategy, dataset size, learning algorithm, and HPO method affect overtuning and discuss mitigation strategies. Our results highlight the need to raise awareness of overtuning, particularly in the small-data regime, indicating that further mitigation strategies should be studied.
- Abstract(参考訳): ハイパーパラメータ最適化(HPO)は、最適なハイパーパラメータ構成(HPC)を特定することを目的としており、結果として得られるモデルは、見えないデータによく一般化される。
期待される一般化誤差を直接最適化できないため、ホールドアウトやクロスバリデーションのような再サンプリング戦略で推定される。
このアプローチは、検証エラーの最小化が一般化の改善につながることを暗黙的に仮定する。
しかし、検証エラー推定は本質的に確率的であり、再サンプリング戦略に依存しているため、自然な疑問が生じる: 検証エラーの過度な最適化は、経験的リスク最小化に基づくモデルトレーニングにおける過度な適合に似ていますか?
本稿では,HPOに特有のオーバーフィット形態であるオーバーチューニング(overtuning)という現象について検討する。
現実的な関連性にもかかわらず、オーバーチューニングはHPOとAutoMLの文献で限定的に注目されている。
オーバーチューニングの正式な定義を提供し、メタオーバーフィッティングのような関連する概念と区別する。
次に,HPOベンチマークデータを大規模に再解析し,オーバーチューニングの頻度と重症度を評価する。
以上の結果から,オーバーチューニングは従来想定されていたよりも一般的であり,通常は軽度であるが,時には重度であることが明らかとなった。
約10%のケースでは、オーバーチューニングは、デフォルト設定や最初の設定よりも悪い一般化誤差を持つ、一見最適なHPCの選択につながる。
さらに、性能指標、再サンプリング戦略、データセットサイズ、学習アルゴリズム、HPO手法などの要因が過度に調整し、緩和戦略について議論する。
以上の結果から,特に小データ体制においては,オーバーチューニングに対する意識を高める必要性が強調され,さらなる緩和策が検討されるべきであることが示された。
関連論文リスト
- Uncertainty-Penalized Direct Preference Optimization [52.387088396044206]
我々は、優先不確実性ペナル化スキームを導入し、DPOの悲観的な枠組みを開発する。
ペナル化は、不確実なサンプルの損失勾配を減衰させる損失の補正として機能する。
我々は,バニラDPOと比較して全体的な性能が向上し,高い不確実性選択/拒絶反応によるプロンプトの完成度も向上した。
論文 参考訳(メタデータ) (2024-10-26T14:24:37Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Hyperparameter Optimization Can Even be Harmful in Off-Policy Learning and How to Deal with It [20.312864152544954]
我々は,HPOのサロゲート目的として一般化性能の非バイアス推定器を鼻で適用すると,予期せぬ故障が生じることを示した。
本稿では,上記の課題を同時に扱うために,一般的なHPO手順に対する単純で効率的な補正法を提案する。
論文 参考訳(メタデータ) (2024-04-23T14:34:16Z) - Unified Low-Resource Sequence Labeling by Sample-Aware Dynamic Sparse
Finetuning [24.765911297156855]
FISH-DIPは、少数のパラメータに選択的にフォーカスする、サンプル対応のダイナミックスパース微調整戦略である。
FISH-DIPは、最大40%の性能改善を提供する低リソース設定でモデルをスムーズに最適化できることを実証した。
論文 参考訳(メタデータ) (2023-11-07T06:19:37Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Fine-Tuning Language Models with Advantage-Induced Policy Alignment [80.96507425217472]
大規模言語モデルと人間の嗜好を整合させる新しいアルゴリズムを提案する。
言語タスクにおいてPPOを常に上回り、大きなマージンを持つことを示す。
また,損失関数の設計を支援する理論的正当性も提供する。
論文 参考訳(メタデータ) (2023-06-04T01:59:40Z) - Estimate-Then-Optimize versus Integrated-Estimation-Optimization versus Sample Average Approximation: A Stochastic Dominance Perspective [21.945745750737952]
モデルクラスが十分に特定され、十分なデータが存在する場合に、逆の振る舞いが現れることを示す。
また, 標準サンプル平均近似 (SAA) が, 後悔の点において, モデルクラスが適切に特定された場合に, 最悪の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-04-13T21:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。