論文の概要: Practitioner Motives to Select Hyperparameter Optimization Methods
- arxiv url: http://arxiv.org/abs/2203.01717v3
- Date: Sun, 09 Mar 2025 21:18:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:39:10.400304
- Title: Practitioner Motives to Select Hyperparameter Optimization Methods
- Title(参考訳): ハイパーパラメータ最適化手法の選択のための実践者動機
- Authors: Niclas Kannengießer, Niklas Hasebrook, Felix Morsbach, Marc-André Zöller, Jörg Franke, Marius Lindauer, Frank Hutter, Ali Sunyaev,
- Abstract要約: プログラム型ハイパーパラメータ最適化(HPO)手法は機械学習(ML)モデルの開発において高いサンプリング効率を示す。
しかし、実践者はグリッドサーチのようなサンプル効率の低いHPO手法を使うことが多く、しばしば最適化されていないMLモデルをもたらす。
この研究は、実践者がなぜ異なるHPOメソッドを使うのかをよりよく理解するための概念的基盤を提供する。
- 参考スコア(独自算出の注目度): 41.1021238477249
- License:
- Abstract: Programmatic hyperparamter optimization (HPO) methods, such as Bayesian optimization and evolutionary algorithms, show high sampling efficiency in finding optimal hyperparameter configurations in development of machine learning (ML) models. Yet, practitioners often use less sample-efficient HPO methods, such as grid search, which often results in under-optimized ML models. As a reason for this behavior, we suspect practitioners choose HPO methods based on different motives. Practitioner motives, however, still need to be clarified to enhance user-centered development of HPO tools. To uncover practitioner motives to use different HPO methods, we conducted 20 semi-structured interviews and an online questionnaire with 49 ML experts. By presenting main goals (e.g., increase ML model understanding) and contextual factors affecting practitioners' selection of HPO methods (e.g., available computer resources), this study offers a conceptual foundation to better understand why practitioners use different HPO methods, supporting design of more user-centered and context-adaptive HPO tools in automated ML.
- Abstract(参考訳): ベイズ最適化や進化的アルゴリズムのようなプログラム型ハイパーパラメータ最適化(HPO)手法は、機械学習(ML)モデルの開発において最適なハイパーパラメータ構成を見つける際に高いサンプリング効率を示す。
しかし、実践者はグリッドサーチのようなサンプル効率の低いHPO手法を使うことが多く、しばしば最適化されていないMLモデルをもたらす。
この行動の理由として、実践者は異なる動機に基づいてHPO法を選択すると疑っている。
しかし、HPOツールのユーザ中心の開発を促進するためには、まだ実践者のモチベーションを明確にする必要がある。
実践者がHPO法を多用する動機を明らかにするために,20の半構造化インタビューと49名のML専門家によるオンラインアンケートを行った。
本研究は,実践者がHPOメソッドの選択に影響を及ぼす主要な目標(例えば,MLモデル理解の向上)と文脈要因(例えば,利用可能なコンピュータリソース)を提示することにより,実践者が異なるHPOメソッドを使用する理由をよりよく理解するための概念的基盤を提供するとともに,よりユーザ中心でコンテキスト適応的なHPOツールを自動MLで設計することを支援する。
関連論文リスト
- HyperQ-Opt: Q-learning for Hyperparameter Optimization [0.0]
本稿では,HPOを逐次決定問題として定式化し,強化学習技術であるQ-ラーニングを活用することにより,HPOに対する新たな視点を示す。
これらのアプローチは、限られた試行数で最適または準最適構成を見つける能力について評価されている。
このパラダイムをポリシーベースの最適化にシフトすることで、スケーラブルで効率的な機械学習アプリケーションのためのHPOメソッドの進歩に寄与する。
論文 参考訳(メタデータ) (2024-12-23T18:22:34Z) - Hierarchical Preference Optimization: Learning to achieve goals via feasible subgoals prediction [71.81851971324187]
本研究は階層型強化学習(HRL)の新しいアプローチである階層型優先度最適化(HPO)を導入する。
HPOは、複雑なロボット制御タスクを解く際に、非定常性と非実用的なサブゴール生成の問題に対処する。
挑戦的なロボットナビゲーションと操作タスクの実験はHPOの素晴らしいパフォーマンスを示しており、ベースラインよりも最大35%改善されている。
論文 参考訳(メタデータ) (2024-11-01T04:58:40Z) - The Hitchhiker's Guide to Human Alignment with *PO [43.4130314879284]
我々は,高次パラメータの変動に対して同時に頑健であるアルゴリズムの同定に焦点をあてる。
解析の結果,広範に採用されているDPO法は,品質が劣る長大な応答を連続的に生成することがわかった。
これらの結果から,DPOアルゴリズムであるLN-DPOの精度が向上し,品質を損なうことなく,より簡潔な応答が得られることが示唆された。
論文 参考訳(メタデータ) (2024-07-21T17:35:20Z) - Exploratory Preference Optimization: Harnessing Implicit Q*-Approximation for Sample-Efficient RLHF [82.7679132059169]
人間のフィードバックから強化学習が言語モデルのアライメントのための中心的なツールとして登場した。
我々は、RLHFにおけるオンライン探索のための新しいアルゴリズム、Exploratory Preference Optimization (XPO)を提案する。
XPOは証明可能な最強の保証と有望な経験的パフォーマンスを享受しています。
論文 参考訳(メタデータ) (2024-05-31T17:39:06Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Enhancing Explainability of Hyperparameter Optimization via Bayesian
Algorithm Execution [13.037647287689438]
部分依存プロットのような解釈可能な機械学習(IML)手法とHPOの組み合わせについて検討する。
我々は,最適大域的予測性能を効率的に探索する改良HPO法を提案する。
提案手法は,最適化性能を損なうことなく,ブラックボックスの信頼性の高い説明を返す。
論文 参考訳(メタデータ) (2022-06-11T07:12:04Z) - A survey on multi-objective hyperparameter optimization algorithms for
Machine Learning [62.997667081978825]
本稿では,多目的HPOアルゴリズムに関する2014年から2020年にかけての文献を体系的に調査する。
メタヒューリスティック・ベース・アルゴリズムとメタモデル・ベース・アルゴリズム,および両者を混合したアプローチを区別する。
また,多目的HPO法と今後の研究方向性を比較するための品質指標についても論じる。
論文 参考訳(メタデータ) (2021-11-23T10:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。