論文の概要: Mining Robust Default Configurations for Resource-constrained AutoML
- arxiv url: http://arxiv.org/abs/2202.09927v1
- Date: Sun, 20 Feb 2022 23:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:55:03.628529
- Title: Mining Robust Default Configurations for Resource-constrained AutoML
- Title(参考訳): リソース制約付きAutoMLのためのロバストデフォルト設定のマイニング
- Authors: Moe Kayali and Chi Wang
- Abstract要約: 本稿では,オフラインのAutoMLを実行し,多様なタスクに対してマイニングを行うことにより,与えられたタスクに対するパフォーマンス設定を選択する新しい方法を提案する。
当社のアプローチは,既存のAutoMLプラットフォームを温める上で有効であることを示す。
- 参考スコア(独自算出の注目度): 18.326426020906215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic machine learning (AutoML) is a key enabler of the mass deployment
of the next generation of machine learning systems. A key desideratum for
future ML systems is the automatic selection of models and hyperparameters. We
present a novel method of selecting performant configurations for a given task
by performing offline autoML and mining over a diverse set of tasks. By mining
the training tasks, we can select a compact portfolio of configurations that
perform well over a wide variety of tasks, as well as learn a strategy to
select portfolio configurations for yet-unseen tasks. The algorithm runs in a
zero-shot manner, that is without training any models online except the chosen
one. In a compute- or time-constrained setting, this virtually instant
selection is highly performant. Further, we show that our approach is effective
for warm-starting existing autoML platforms. In both settings, we demonstrate
an improvement on the state-of-the-art by testing over 62 classification and
regression datasets. We also demonstrate the utility of recommending
data-dependent default configurations that outperform widely used hand-crafted
defaults.
- Abstract(参考訳): 機械学習(AutoML)は、次世代の機械学習システムの大量展開を可能にする重要な手段である。
将来のMLシステムでは、モデルとハイパーパラメータの自動選択が重要となる。
本稿では,様々なタスク群に対してオフラインオートmlとマイニングを行うことにより,所定のタスクの実行者構成を選択する新しい方法を提案する。
トレーニングタスクをマイニングすることで、さまざまなタスクに対して良好に機能する構成のコンパクトなポートフォリオを選択したり、未確認タスクのポートフォリオ構成を選択する戦略を学ぶことができます。
アルゴリズムはゼロショット方式で動作し、選択したモデル以外はオンラインのモデルをトレーニングしない。
計算や時間制約のある設定では、この事実上の瞬間選択は高い性能を持つ。
さらに,本手法は既存のAutoMLプラットフォームを温めるのに有効であることを示す。
いずれの環境でも,62以上の分類と回帰データセットをテストすることで,最先端の改善を実証する。
また、広く使われている手作りのデフォルトよりも優れたデータ依存のデフォルト設定を推奨するユーティリティを実証する。
関連論文リスト
- AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Towards Modular LLMs by Building and Reusing a Library of LoRAs [64.43376695346538]
マルチタスクデータに対して最適なアダプタライブラリを構築する方法について検討する。
モデルベースクラスタリング(MBC)を導入し,パラメータの類似性に基づいてタスクをグループ化する手法を提案する。
ライブラリを再使用するために,最も関連性の高いアダプタの動的選択を可能にする新しいゼロショットルーティング機構であるArrowを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:02:23Z) - AutoXPCR: Automated Multi-Objective Model Selection for Time Series
Forecasting [1.0515439489916734]
本稿では,自動的かつ説明可能な多目的モデル選択のための新しい手法であるAutoXPCRを提案する。
我々の手法はメタラーニングを利用して、(P)予測誤差、(C)ミスプレキシティ、(R)ソース要求を含むPCR基準に沿ったモデルの性能を推定する。
我々の手法は、他のモデル選択手法よりも明らかに優れている。平均すると、最高の品質の90%のモデルに推奨する計算コストの20%しか必要としない。
論文 参考訳(メタデータ) (2023-12-20T14:04:57Z) - AutoMix: Automatically Mixing Language Models [62.51238143437967]
大規模言語モデル(LLM)は、さまざまなサイズと構成のクラウドAPIプロバイダから利用可能になった。
より小さなLMからの出力の近似精度に基づいて,クエリを大規模LMに戦略的にルーティングする手法であるAutomixを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:57:39Z) - AutoML-GPT: Large Language Model for AutoML [5.9145212342776805]
包括的なツールとライブラリを統合するAutoML-GPTというフレームワークを確立しました。
会話インターフェースを通じて、ユーザーは要求、制約、評価メトリクスを指定できる。
我々は、AutoML-GPTが機械学習タスクに必要な時間と労力を大幅に削減することを示した。
論文 参考訳(メタデータ) (2023-09-03T09:39:49Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - Hyperparameter optimization in deep multi-target prediction [16.778802088570412]
私たちは、マルチターゲット予測の傘の下に置かれるほとんどの問題設定に対して、単一のAutoMLフレームワークを提供しています。
私たちの作業は、マルチターゲット予測の傘の下に収まるほとんどの問題設定に対して、単一のAutoMLフレームワークを提供する最初の試みであると見なすことができます。
論文 参考訳(メタデータ) (2022-11-08T16:33:36Z) - AutoDES: AutoML Pipeline Generation of Classification with Dynamic
Ensemble Strategy Selection [0.0]
動的アンサンブル選択の進歩を取り入れた機械学習のための新しいフレームワークを提案する。
われわれのアプローチはAutoMLの分野で初めてアンサンブル戦略を検索し最適化するものである。
比較実験において、本手法は、最先端の機械学習フレームワークを同じCPU時間で性能良くする。
論文 参考訳(メタデータ) (2022-01-01T15:17:07Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Amazon SageMaker Automatic Model Tuning: Scalable Black-box Optimization [23.52446054521187]
Amazon SageMaker Automatic Model Tuning(AMT)は、大規模なブラックボックス最適化のためのフルマネージドシステムです。
AMTは、異なるハイパーパラメータ構成で繰り返しトレーニングすることで、機械学習モデルの最良のバージョンを見つける。
組み込みアルゴリズム、カスタムアルゴリズム、マシンラーニングフレームワーク用に構築されたAmazon SageMakerコンテナで使用することができる。
論文 参考訳(メタデータ) (2020-12-15T18:34:34Z) - AutoFIS: Automatic Feature Interaction Selection in Factorization Models
for Click-Through Rate Prediction [75.16836697734995]
自動特徴相互作用選択(AutoFIS)と呼ばれる2段階のアルゴリズムを提案する。
AutoFISは、目標モデルを収束させるためにトレーニングするのと同等の計算コストで、因子化モデルに対する重要な特徴的相互作用を自動的に識別することができる。
AutoFISはHuawei App Storeレコメンデーションサービスのトレーニングプラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2020-03-25T06:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。