論文の概要: AutoML Benchmark with shorter time constraints and early stopping
- arxiv url: http://arxiv.org/abs/2504.01222v1
- Date: Tue, 01 Apr 2025 22:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:11.746984
- Title: AutoML Benchmark with shorter time constraints and early stopping
- Title(参考訳): 短い時間制約と早期停止を備えたAutoML Benchmark
- Authors: Israel Campero Jurado, Pieter Gijsbers, Joaquin Vanschoren,
- Abstract要約: Automated Machine Learning (AutoML)は、データ上に機械学習(ML)モデルを自動的に構築する。
AutoML Benchmark (AMLB)は、104タスクにわたる1時間と4時間の時間予算を使用してAutoMLフレームワークを評価することを提案した。
この研究は、ベンチマークで使用される全体的な計算を減らし、より少ない時間制約と早期停止の使用という2つの方法を検討する。
- 参考スコア(独自算出の注目度): 4.3513443677667585
- License:
- Abstract: Automated Machine Learning (AutoML) automatically builds machine learning (ML) models on data. The de facto standard for evaluating new AutoML frameworks for tabular data is the AutoML Benchmark (AMLB). AMLB proposed to evaluate AutoML frameworks using 1- and 4-hour time budgets across 104 tasks. We argue that shorter time constraints should be considered for the benchmark because of their practical value, such as when models need to be retrained with high frequency, and to make AMLB more accessible. This work considers two ways in which to reduce the overall computation used in the benchmark: smaller time constraints and the use of early stopping. We conduct evaluations of 11 AutoML frameworks on 104 tasks with different time constraints and find the relative ranking of AutoML frameworks is fairly consistent across time constraints, but that using early-stopping leads to a greater variety in model performance.
- Abstract(参考訳): Automated Machine Learning (AutoML)は、データ上に機械学習(ML)モデルを自動的に構築する。
表データのための新しいAutoMLフレームワークを評価するデファクトスタンダードはAutoML Benchmark(AMLB)である。
AMLBは104タスクにわたる1時間と4時間の時間予算を使用してAutoMLフレームワークを評価することを提案した。
モデルが高頻度で再トレーニングされる必要がある場合や、AMLBをよりアクセシブルにするためには、ベンチマークに短い時間制約を考慮すべきである、と我々は主張する。
この研究は、ベンチマークで使用される全体的な計算を減らし、より少ない時間制約と早期停止の使用という2つの方法を検討する。
我々は、104のタスクで11のAutoMLフレームワークの評価を行い、時間的制約によってAutoMLフレームワークの相対的なランキングがかなり整合性があることを見出した。
関連論文リスト
- UniAutoML: A Human-Centered Framework for Unified Discriminative and Generative AutoML with Large Language Models [5.725785427377439]
我々は、人間中心のAutoMLフレームワークであるUniAutoMLを紹介し、AutoMLを識別的タスクと生成的タスクの両方に統一する。
UniAutoMLの人間中心の設計は、自然言語の対話を容易にする対話型ユーザインタフェース(CUI)を革新的に特徴付けている。
この設計により、AutoMLトレーニングプロセス全体の透明性とユーザコントロールが向上し、ユーザがトレーニング対象のモデルをシームレスに分解あるいは修正できるようになる。
論文 参考訳(メタデータ) (2024-10-09T17:33:15Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - AutoM3L: An Automated Multimodal Machine Learning Framework with Large Language Models [6.496539724366041]
本稿では,革新的マルチモーダル機械学習フレームワークAutoM3Lを紹介する。
AutoM3Lはデータモダリティを理解し、ユーザ要求に基づいて適切なモデルを選択する。
6つの多様なマルチモーダルデータセット上でのAutoM3Lの性能評価を行った。
論文 参考訳(メタデータ) (2024-08-01T16:01:51Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - AMLB: an AutoML Benchmark [9.642136611591578]
71の分類と33の回帰タスクで9つのよく知られたAutoMLフレームワークを徹底的に比較する。
ベンチマークにはオープンソースツールが付属しており、多くのAutoMLフレームワークと統合され、実証的な評価プロセスのエンドツーエンドを自動化する。
論文 参考訳(メタデータ) (2022-07-25T22:34:08Z) - Auto-Sklearn 2.0: Hands-free AutoML via Meta-Learning [45.643809726832764]
第2回ChaLearn AutoMLチャレンジへの勝利を動機とした新しいAutoMLアプローチを紹介します。
我々はPoSH Auto-Sklearnを開発した。これは、厳格な時間制限下で、AutoMLシステムが大きなデータセットでうまく機能することを可能にする。
また、真にハンズフリーなAutoMLに対する解決策を提案する。
論文 参考訳(メタデータ) (2020-07-08T12:41:03Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - Is deep learning necessary for simple classification tasks? [3.3793659640122717]
自動機械学習(Automated Machine Learning、ML)とディープラーニング(Deep Learning、DL)は、帰納的学習タスクを解決するために使用される最先端のパラダイムである。
6つのよく認識された公開データセットのバイナリ分類の文脈でAutoMLとDLを比較した。
また、深部推定器を組み込んだ遺伝的プログラミングに基づくAutoMLの新しいツールの評価を行った。
論文 参考訳(メタデータ) (2020-06-11T18:41:47Z) - AutoGluon-Tabular: Robust and Accurate AutoML for Structured Data [120.2298620652828]
オープンソースのAutoMLフレームワークであるAutoGluon-Tabularを紹介します。
KaggleとOpenML AutoML Benchmarkの50の分類および回帰タスクからなるスイートのテストによると、AutoGluonはより速く、より堅牢で、はるかに正確である。
論文 参考訳(メタデータ) (2020-03-13T23:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。