論文の概要: A Collection of Quality Diversity Optimization Problems Derived from
Hyperparameter Optimization of Machine Learning Models
- arxiv url: http://arxiv.org/abs/2204.14061v1
- Date: Thu, 28 Apr 2022 14:29:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 09:49:53.871848
- Title: A Collection of Quality Diversity Optimization Problems Derived from
Hyperparameter Optimization of Machine Learning Models
- Title(参考訳): 機械学習モデルのハイパーパラメータ最適化に基づく品質多様性最適化問題の集合
- Authors: Lennart Schneider, Florian Pfisterer, Janek Thomas, Bernd Bischl
- Abstract要約: 品質多様性最適化(Quality Diversity Optimization)は、与えられた問題に対する多様な高パフォーマンスなソリューションを生成する。
我々のベンチマーク問題には、解釈可能性やモデルの資源利用など、新しい特徴関数が関係している。
高速で効率的なベンチマークを可能にするため、最近提案されたオープンソースのベンチマークスイートであるYAHPO Gymをベースとしています。
- 参考スコア(独自算出の注目度): 0.8029049649310213
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of Quality Diversity Optimization is to generate a collection of
diverse yet high-performing solutions to a given problem at hand. Typical
benchmark problems are, for example, finding a repertoire of robot arm
configurations or a collection of game playing strategies. In this paper, we
propose a set of Quality Diversity Optimization problems that tackle
hyperparameter optimization of machine learning models - a so far underexplored
application of Quality Diversity Optimization. Our benchmark problems involve
novel feature functions, such as interpretability or resource usage of models.
To allow for fast and efficient benchmarking, we build upon YAHPO Gym, a
recently proposed open source benchmarking suite for hyperparameter
optimization that makes use of high performing surrogate models and returns
these surrogate model predictions instead of evaluating the true expensive
black box function. We present results of an initial experimental study
comparing different Quality Diversity optimizers on our benchmark problems.
Furthermore, we discuss future directions and challenges of Quality Diversity
Optimization in the context of hyperparameter optimization.
- Abstract(参考訳): Quality Diversity Optimization の目標は、与えられた問題に対する多様な高性能なソリューションのコレクションを作成することである。
典型的なベンチマーク問題は、例えばロボットアームの構成のレパートリーやゲームプレイ戦略のコレクションを見つけることである。
本稿では,機械学習モデルのハイパーパラメータ最適化に取り組む品質多様性最適化問題の集合を提案する。
我々のベンチマーク問題は、解釈可能性やモデルの資源利用など、新しい特徴関数を含む。
高速かつ効率的なベンチマークを可能にするため、我々は最近提案されたハイパーパラメータ最適化のためのオープンソースのベンチマークスイートであるYAHPO Gymをベースとして、高性能なサロゲートモデルを使用し、真の高価なブラックボックス関数を評価するのではなく、これらのサロゲートモデル予測を返す。
本稿では,ベンチマーク問題に対する品質多様性オプティマイザの比較実験を行った。
さらに,超パラメータ最適化における品質多様性最適化の今後の方向性と課題についても論じる。
関連論文リスト
- Model Fusion through Bayesian Optimization in Language Model Fine-Tuning [16.86812534268461]
下流タスクのための微調整された事前学習モデルは、様々な領域にまたがる適応性と信頼性で広く採用されているテクニックである。
本稿では,多目的ベイズ最適化により,所望の計量と損失の両方を最適化する新しいモデル融合手法を提案する。
各種下流タスクを対象とした実験では,ベイズ最適化誘導方式による大幅な性能向上が見られた。
論文 参考訳(メタデータ) (2024-11-11T04:36:58Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - Uncertainty-Aware Search Framework for Multi-Objective Bayesian
Optimization [40.40632890861706]
高価な関数評価を用いたマルチオブジェクト(MO)ブラックボックス最適化の問題点を考察する。
UeMOと呼ばれる新しい不確実性対応検索フレームワークを提案し、評価のための入力シーケンスを効率的に選択する。
論文 参考訳(メタデータ) (2022-04-12T16:50:48Z) - Hyper-parameter optimization based on soft actor critic and hierarchical
mixture regularization [5.063728016437489]
我々はマルコフ決定プロセスとしてハイパーパラメータ最適化プロセスをモデル化し、強化学習でそれに取り組む。
ソフトアクター評論家と階層混合正規化に基づく新しいハイパーパラメータ最適化法が提案されている。
論文 参考訳(メタデータ) (2021-12-08T02:34:43Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。