論文の概要: Identifying Easy Instances to Improve Efficiency of ML Pipelines for Algorithm-Selection
- arxiv url: http://arxiv.org/abs/2406.16999v1
- Date: Mon, 24 Jun 2024 12:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 18:50:40.679718
- Title: Identifying Easy Instances to Improve Efficiency of ML Pipelines for Algorithm-Selection
- Title(参考訳): アルゴリズム選択のためのMLパイプラインの効率向上のための簡易なインスタンスの同定
- Authors: Quentin Renau, Emma Hart,
- Abstract要約: 本稿では,アルゴリズムの選択を必要とせず,ジェネリストソルバを用いて簡単に解決できる簡単なインスタンスを同定する手法を提案する。
これにより、機能計算に関連する計算予算が削減され、ASパイプライン内の他の場所で使用できるようになる。
- 参考スコア(独自算出の注目度): 0.20718016474717196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithm-selection (AS) methods are essential in order to obtain the best performance from a portfolio of solvers over large sets of instances. However, many AS methods rely on an analysis phase, e.g. where features are computed by sampling solutions and used as input in a machine-learning model. For AS to be efficient, it is therefore important that this analysis phase is not computationally expensive. We propose a method for identifying easy instances which can be solved quickly using a generalist solver without any need for algorithm-selection. This saves computational budget associated with feature-computation which can then be used elsewhere in an AS pipeline, e.g., enabling additional function evaluations on hard problems. Experiments on the BBOB dataset in two settings (batch and streaming) show that identifying easy instances results in substantial savings in function evaluations. Re-allocating the saved budget to hard problems provides gains in performance compared to both the virtual best solver (VBS) computed with the original budget, the single best solver (SBS) and a trained algorithm-selector.
- Abstract(参考訳): アルゴリズム選択 (AS) 法は,大規模インスタンス群に対する解法ポートフォリオから最高の性能を得るために不可欠である。
しかし、多くのAS手法は分析フェーズに依存しており、例えば、特徴はサンプリングソリューションによって計算され、機械学習モデルの入力として使用される。
したがって、ASが効率的であるためには、この分析フェーズが計算コストが高くないことが重要である。
本稿では,アルゴリズムの選択を必要とせず,ジェネリストソルバを用いて簡単に解決できる簡単なインスタンスを同定する手法を提案する。
これにより、機能計算に関連する計算予算を削減し、ASパイプラインの他の場所で使用することができる。
BBOBデータセットを2つの設定(バッチとストリーミング)で実験した結果、簡単にインスタンスを識別することで、関数評価の大幅な削減が達成された。
保存した予算をハードな問題に再割り当てすることで、元の予算で計算された仮想ベストソルバ(VBS)、シングルベストソルバ(SBS)、訓練されたアルゴリズムセレクタと比較してパフォーマンスが向上する。
関連論文リスト
- Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - DynamoRep: Trajectory-Based Population Dynamics for Classification of
Black-box Optimization Problems [0.755972004983746]
簡単な統計量を用いて最適化アルゴリズムの軌道を記述する特徴抽出法を提案する。
提案するDynamoRep機能は,最適化アルゴリズムが動作している問題クラスを特定するのに十分な情報を取得する。
論文 参考訳(メタデータ) (2023-06-08T06:57:07Z) - Scalable Batch Acquisition for Deep Bayesian Active Learning [70.68403899432198]
ディープラーニングでは、各ステップでマークアップする複数の例を選択することが重要です。
BatchBALDのような既存のソリューションでは、多くの例を選択する際に大きな制限がある。
本稿では,より計算効率のよいLarge BatchBALDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-13T11:45:17Z) - A machine learning based algorithm selection method to solve the minimum
cost flow problem [0.8399688944263843]
複数の機械学習分類器を訓練し、与えられた解の集合の中で最速の予測を行う。
木をベースとしたモデルでは,最小コストのフロー問題の関連構造を適応し,活用することが示されている。
論文 参考訳(メタデータ) (2022-10-03T16:06:24Z) - OptABC: an Optimal Hyperparameter Tuning Approach for Machine Learning
Algorithms [1.6114012813668934]
OptABCは、ABCアルゴリズムがほぼ最適解へのより高速な収束を支援するために提案されている。
OptABCは、人工蜂コロニーアルゴリズム、K-Meansクラスタリング、greedyアルゴリズム、および反対ベースの学習戦略を統合している。
実験結果から,OptABCの有効性が文献の既存手法と比較された。
論文 参考訳(メタデータ) (2021-12-15T22:33:39Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Accelerated Sparse Bayesian Learning via Screening Test and Its
Applications [0.9916217495995309]
線形系では、過度に完備な特徴の辞書を具備した最小の解を求めるのは通常NPハードである。
本稿では,解の空間性を促進するためにパラメータ化を事前に用いた疎ベイズ学習を提案する。
論文 参考訳(メタデータ) (2020-07-08T10:21:56Z) - Simple and Scalable Parallelized Bayesian Optimization [2.512827436728378]
本稿では,非同期並列設定のためのシンプルでスケーラブルなBO法を提案する。
マルチ層パーセプトロンのベンチマーク関数とハイパーパラメータ最適化を用いて実験を行った。
論文 参考訳(メタデータ) (2020-06-24T10:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。