論文の概要: Meta-Learning from Learning Curves for Budget-Limited Algorithm Selection
- arxiv url: http://arxiv.org/abs/2410.07696v1
- Date: Thu, 10 Oct 2024 08:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 15:25:43.568568
- Title: Meta-Learning from Learning Curves for Budget-Limited Algorithm Selection
- Title(参考訳): 予算制限アルゴリズム選択のための学習曲線からのメタラーニング
- Authors: Manh Hung Nguyen, Lisheng Sun-Hosoya, Isabelle Guyon,
- Abstract要約: 予算制限のシナリオでは、アルゴリズム候補を慎重に選択し、それを訓練するための予算を割り当てることが不可欠である。
本稿では,エージェントが十分に訓練されるまで待たずに,最も有望なアルゴリズムを学習する過程において,エージェントが選択しなければならない新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 11.409496019407067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a large set of machine learning algorithms to convergence in order to select the best-performing algorithm for a dataset is computationally wasteful. Moreover, in a budget-limited scenario, it is crucial to carefully select an algorithm candidate and allocate a budget for training it, ensuring that the limited budget is optimally distributed to favor the most promising candidates. Casting this problem as a Markov Decision Process, we propose a novel framework in which an agent must select in the process of learning the most promising algorithm without waiting until it is fully trained. At each time step, given an observation of partial learning curves of algorithms, the agent must decide whether to allocate resources to further train the most promising algorithm (exploitation), to wake up another algorithm previously put to sleep, or to start training a new algorithm (exploration). In addition, our framework allows the agent to meta-learn from learning curves on past datasets along with dataset meta-features and algorithm hyperparameters. By incorporating meta-learning, we aim to avoid myopic decisions based solely on premature learning curves on the dataset at hand. We introduce two benchmarks of learning curves that served in international competitions at WCCI'22 and AutoML-conf'22, of which we analyze the results. Our findings show that both meta-learning and the progression of learning curves enhance the algorithm selection process, as evidenced by methods of winning teams and our DDQN baseline, compared to heuristic baselines or a random search. Interestingly, our cost-effective baseline, which selects the best-performing algorithm w.r.t. a small budget, can perform decently when learning curves do not intersect frequently.
- Abstract(参考訳): データセットのベストパフォーマンスアルゴリズムを選択するために、機械学習アルゴリズムの大規模なセットを収束させる訓練は、計算的に無駄である。
さらに、予算限定のシナリオでは、アルゴリズム候補を慎重に選択し、訓練のための予算を割り当てることが重要であり、限られた予算が最適に分散され、最も有望な候補を優先することが保証される。
本稿では,この問題をマルコフ決定過程とみなして,エージェントが十分に訓練されるまで待たずに,最も有望なアルゴリズムを学習する過程において,エージェントが選択しなければならない新しい枠組みを提案する。
各ステップにおいて、アルゴリズムの部分的な学習曲線を観察すると、エージェントは最も有望なアルゴリズム(探索)をトレーニングするためにリソースを割り当てるか、以前睡眠にかけた別のアルゴリズムを起動するか、新しいアルゴリズム(探索)のトレーニングを開始するかを決定する必要がある。
さらに,我々のフレームワークは,過去のデータセットの学習曲線から,データセットのメタ機能やアルゴリズムのハイパーパラメータとともにメタ学習を可能にする。
メタラーニングを取り入れることで、手元にあるデータセットの未熟な学習曲線のみに基づく筋電図決定を避けることを目指している。
我々は、WCCI'22とAutoML-conf'22の国際競争で機能する学習曲線のベンチマークを2つ導入し、その結果を分析した。
以上の結果から,メタラーニングと学習曲線の進行は,アルゴリズムの選択過程を,ヒューリスティックベースラインやランダムサーチと比較して,勝利チームとDDQNベースラインの手法によって証明されているように促進することがわかった。
興味深いことに、学習曲線が頻繁に交わらない場合に、最小の予算で最高の性能のアルゴリズムを選択するコスト効率のベースラインを適切に実行することができる。
関連論文リスト
- Frugal Algorithm Selection [1.079960007119637]
問題のすべてのインスタンスにうまく機能するアルゴリズムは存在しない。
本研究では、トレーニング対象のトレーニングインスタンスのサブセットを選択することで、このコストを削減する方法について検討する。
我々は,この問題を3つの方法でアプローチする: 能動的学習を用いて予測の不確実性に基づいて決定し, アルゴリズム予測器をタイムアウト予測器で拡張し, 徐々に増加するタイムアウトを用いてトレーニングデータを収集する。
論文 参考訳(メタデータ) (2024-05-17T19:23:30Z) - Neural Algorithmic Reasoning Without Intermediate Supervision [21.852775399735005]
我々は、中間的監督に訴えることなく、入出力ペアからのみニューラルネットワーク推論を学ぶことに集中する。
我々は、アルゴリズムの軌跡にアクセスできることなく、モデルの中間計算を正規化できる自己教師対象を構築する。
CLRSic Algorithmic Reasoning Benchmarkのタスクにおいて,提案手法はトラジェクトリを教師する手法と競合することを示す。
論文 参考訳(メタデータ) (2023-06-23T09:57:44Z) - Probabilistic Bilevel Coreset Selection [24.874967723659022]
本稿では,各トレーニングサンプルの確率的重みを学習することにより,コアセット選択の連続確率的2レベル定式化を提案する。
暗黙的な微分の問題を伴わずに、偏りのない政策勾配を経由し、二段階最適化問題に対する効率的な解法を開発する。
論文 参考訳(メタデータ) (2023-01-24T09:37:00Z) - Learning Curves for Decision Making in Supervised Machine Learning -- A
Survey [9.994200032442413]
学習曲線は、機械学習の文脈で採用されている社会科学の概念である。
本稿では,学習曲線のアプローチを3つの基準を用いて分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T14:34:32Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Algorithm Selection on a Meta Level [58.720142291102135]
本稿では,与えられたアルゴリズムセレクタの組み合わせに最適な方法を求めるメタアルゴリズム選択の問題を紹介する。
本稿では,メタアルゴリズム選択のための一般的な方法論フレームワークと,このフレームワークのインスタンス化として具体的な学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-20T11:23:21Z) - Double Coverage with Machine-Learned Advice [100.23487145400833]
オンラインの基本的な$k$-serverの問題を学習強化環境で研究する。
我々のアルゴリズムは任意の k に対してほぼ最適の一貫性-破壊性トレードオフを達成することを示す。
論文 参考訳(メタデータ) (2021-03-02T11:04:33Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - Run2Survive: A Decision-theoretic Approach to Algorithm Selection based
on Survival Analysis [75.64261155172856]
生存分析(SA)は、自然に検閲されたデータをサポートし、アルゴリズムランタイムの分散モデルを学習するためにそのようなデータを使用する適切な方法を提供する。
我々は、アルゴリズム選択に対する洗練された決定論的アプローチの基礎として、そのようなモデルを活用し、Run2Surviveを疑う。
標準ベンチマークASlibによる広範な実験では、我々のアプローチは競争力が高く、多くの場合、最先端のASアプローチよりも優れていることが示されている。
論文 参考訳(メタデータ) (2020-07-06T15:20:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。