論文の概要: Multi-objective Hyperparameter Optimization in the Age of Deep Learning
- arxiv url: http://arxiv.org/abs/2511.08371v1
- Date: Wed, 12 Nov 2025 01:55:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.78496
- Title: Multi-objective Hyperparameter Optimization in the Age of Deep Learning
- Title(参考訳): ディープラーニング時代の多目的ハイパーパラメータ最適化
- Authors: Soham Basu, Frank Hutter, Danny Stoll,
- Abstract要約: PriMOは、多目的ユーザ信念を統合する最初のHPOアルゴリズムである。
8つのDeep LearningベンチマークでPriMOが最先端のパフォーマンスを実現していることを示す。
- 参考スコア(独自算出の注目度): 42.52416770540189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Deep Learning (DL) experts often have prior knowledge about which hyperparameter settings yield strong performance, only few Hyperparameter Optimization (HPO) algorithms can leverage such prior knowledge and none incorporate priors over multiple objectives. As DL practitioners often need to optimize not just one but many objectives, this is a blind spot in the algorithmic landscape of HPO. To address this shortcoming, we introduce PriMO, the first HPO algorithm that can integrate multi-objective user beliefs. We show PriMO achieves state-of-the-art performance across 8 DL benchmarks in the multi-objective and single-objective setting, clearly positioning itself as the new go-to HPO algorithm for DL practitioners.
- Abstract(参考訳): ディープラーニング(DL)の専門家は、どのハイパーパラメータ設定が強いパフォーマンスをもたらすかに関する事前知識を持っていることが多いが、そのような事前知識を活用できるのはハイパーパラメータ最適化(HPO)アルゴリズムはほとんどなく、複数の目的に対する事前知識は組み込まれていない。
DL実践者は、しばしば1つの目的だけでなく多くの目的を最適化する必要があるため、HPOのアルゴリズムのランドスケープにおいて、これは盲点である。
この欠点に対処するために,多目的ユーザ信念を統合する最初のHPOアルゴリズムであるPriMOを導入する。
われわれは,PriMOが,多目的・単目的設定において,8つのDLベンチマークの最先端性能を達成し,DL実践者のための新たなHPOアルゴリズムとして位置づけていることを示す。
関連論文リスト
- Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - PriorBand: Practical Hyperparameter Optimization in the Age of Deep
Learning [49.92394599459274]
我々は,Deep Learning(DL)パイプラインに適したHPOアルゴリズムであるPresideBandを提案する。
各種のDLベンチマークでその堅牢性を示し、情報的専門家のインプットと、専門家の信条の低さに対してその利得を示す。
論文 参考訳(メタデータ) (2023-06-21T16:26:14Z) - Speeding Up Multi-Objective Hyperparameter Optimization by Task
Similarity-Based Meta-Learning for the Tree-Structured Parzen Estimator [37.553558410770314]
本稿では,タスク間のトップドメインの重複によって定義されるタスク類似性を用いて,TPEの取得機能をメタラーニング設定に拡張する。
実験では,表付きHPOベンチマークでMO-TPEを高速化し,最先端の性能が得られることを示した。
論文 参考訳(メタデータ) (2022-12-13T17:33:02Z) - A survey on multi-objective hyperparameter optimization algorithms for
Machine Learning [62.997667081978825]
本稿では,多目的HPOアルゴリズムに関する2014年から2020年にかけての文献を体系的に調査する。
メタヒューリスティック・ベース・アルゴリズムとメタモデル・ベース・アルゴリズム,および両者を混合したアプローチを区別する。
また,多目的HPO法と今後の研究方向性を比較するための品質指標についても論じる。
論文 参考訳(メタデータ) (2021-11-23T10:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。