論文の概要: Obeying the Order: Introducing Ordered Transfer Hyperparameter
Optimisation
- arxiv url: http://arxiv.org/abs/2306.16916v1
- Date: Thu, 29 Jun 2023 13:08:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 13:28:04.566617
- Title: Obeying the Order: Introducing Ordered Transfer Hyperparameter
Optimisation
- Title(参考訳): 順序に従う: 順序付き転送ハイパーパラメータ最適化の導入
- Authors: Sigrid Passano Hellan, Huibin Shen, Fran\c{c}ois-Xavier Aubet, David
Salinas and Aaron Klein
- Abstract要約: OTHPOは、タスクが逐次順序に従うトランスファー学習のバージョンである。
10のベンチマークを用いた順序付けの重要性を実証的に示す。
我々はこのベンチマークをオープンソースとして公開し、注文転送HPOの今後の研究を奨励する。
- 参考スコア(独自算出の注目度): 10.761476482982077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ordered transfer hyperparameter optimisation (OTHPO), a version
of transfer learning for hyperparameter optimisation (HPO) where the tasks
follow a sequential order. Unlike for state-of-the-art transfer HPO, the
assumption is that each task is most correlated to those immediately before it.
This matches many deployed settings, where hyperparameters are retuned as more
data is collected; for instance tuning a sequence of movie recommendation
systems as more movies and ratings are added. We propose a formal definition,
outline the differences to related problems and propose a basic OTHPO method
that outperforms state-of-the-art transfer HPO. We empirically show the
importance of taking order into account using ten benchmarks. The benchmarks
are in the setting of gradually accumulating data, and span XGBoost, random
forest, approximate k-nearest neighbor, elastic net, support vector machines
and a separate real-world motivated optimisation problem. We open source the
benchmarks to foster future research on ordered transfer HPO.
- Abstract(参考訳): 我々は、タスクが逐次順序に従う過パラメータ最適化(HPO)のための転送学習のバージョンである、順序付き転送ハイパーパラメータ最適化(OTHPO)を導入する。
最先端のHPOとは異なり、各タスクはその直前のタスクと最も相関していると仮定される。
これは多くのデプロイされた設定と一致し、ハイパーパラメータはより多くのデータが収集されるにつれて再調整される。
本稿では,関連する問題との違いを概説し,最先端のHPOよりも優れたOTHPO法を提案する。
10のベンチマークを用いた順序付けの重要性を実証的に示す。
ベンチマークは徐々にデータを蓄積し、XGBoost、ランダムフォレスト、近似k-アネレスト隣人、弾性ネット、サポートベクターマシン、および別の実世界のモチベーション最適化問題にまたがる。
我々はこのベンチマークをオープンソース化し、注文転送HPOの今後の研究を促進する。
関連論文リスト
- Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Deep Ranking Ensembles for Hyperparameter Optimization [9.453554184019108]
本稿では,メタ学習型ニューラルネットワークが構成性能のランク付けに最適化され,アンサンブルによる不確実性をモデル化する手法を提案する。
12のベースライン、16のHPO検索スペース、86のデータセット/タスクからなる大規模実験プロトコルにおいて、本手法がHPOの新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2023-03-27T13:52:40Z) - FedHPO-B: A Benchmark Suite for Federated Hyperparameter Optimization [50.12374973760274]
本稿では,包括的FLタスクを組み込んだベンチマークスイートFedHPO-Bを提案する。
我々はまた、FedHPO-Bに基づく広範な実験を行い、いくつかのHPO法をベンチマークする。
論文 参考訳(メタデータ) (2022-06-08T15:29:10Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - DHA: End-to-End Joint Optimization of Data Augmentation Policy,
Hyper-parameter and Architecture [81.82173855071312]
本稿では,AutoMLコンポーネントを統合したエンドツーエンドソリューションを提案する。
Dhaは、様々なデータセット、特にセルベースの検索空間を持つImageNetの77.4%の精度で、最先端(SOTA)結果を達成する。
論文 参考訳(メタデータ) (2021-09-13T08:12:50Z) - Hyperparameter Optimization: Foundations, Algorithms, Best Practices and
Open Challenges [5.139260825952818]
本稿では,グリッドやランダム検索,進化アルゴリズム,ベイズ最適化,ハイパーバンド,レースなどの重要なHPO手法について述べる。
HPOアルゴリズム自体、パフォーマンス評価、HPOとMLパイプラインの結合方法、ランタイムの改善、並列化など、HPOの実行時に行うべき重要な選択について、実用的なレコメンデーションを提供する。
論文 参考訳(メタデータ) (2021-07-13T04:55:47Z) - Few-Shot Bayesian Optimization with Deep Kernel Surrogates [7.208515071018781]
本研究では,新しいタスクの応答関数に適応するために,共有型深層サロゲートモデルを学習する数ショット学習問題を提案する。
本稿では,エンドツーエンドにメタ学習されたガウス的プロセスサロゲートにディープカーネルネットワークを適用することを提案する。
その結果、深部カーネルサーロゲートの斬新な数ショット最適化は、HPOでの新しい最先端の結果につながります。
論文 参考訳(メタデータ) (2021-01-19T15:00:39Z) - Practical and sample efficient zero-shot HPO [8.41866793161234]
利用可能なアプローチの概要と、この問題に対処する2つの新しいテクニックを紹介します。
1つは、サロゲートモデルに基づいて、クエリのためのデータセットと設定のペアを適応的に選択する。
2つ目は、サロゲートモデルの検出、チューニング、テストが問題となる設定のためのもので、HyperBandとサブモジュラー最適化を組み合わせた多要素技術である。
論文 参考訳(メタデータ) (2020-07-27T08:56:55Z) - HyperSTAR: Task-Aware Hyperparameters for Deep Networks [52.50861379908611]
HyperSTARは、ディープニューラルネットワークのためのHPOをウォームスタートするタスク認識方式である。
生の画像から直接、データセット(タスク)表現とパフォーマンス予測器を学習する。
既存のメソッドと比較して、最高のパフォーマンスを達成するために、構成を50%少なく評価する。
論文 参考訳(メタデータ) (2020-05-21T08:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。