論文の概要: SubStrat: A Subset-Based Strategy for Faster AutoML
- arxiv url: http://arxiv.org/abs/2206.03070v1
- Date: Tue, 7 Jun 2022 07:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 16:52:04.362662
- Title: SubStrat: A Subset-Based Strategy for Faster AutoML
- Title(参考訳): SubStrat: より高速なAutoMLのためのサブセットベースの戦略
- Authors: Teddy Lazebnik, Amit Somech, Abraham Itzhak Weinberg
- Abstract要約: SubStratは、設定スペースではなく、データサイズに取り組むAutoML最適化戦略である。
既存のAutoMLツールをラップし、データセット全体を直接実行する代わりに、SubStratは遺伝的アルゴリズムを使用して小さなサブセットを見つける。
その後、小さなサブセットにAutoMLツールを使用し、最後に、大きなデータセット上で制限された、はるかに短いAutoMLプロセスを実行することで、結果のパイプラインを洗練する。
- 参考スコア(独自算出の注目度): 5.833272638548153
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated machine learning (AutoML) frameworks have become important tools in
the data scientists' arsenal, as they dramatically reduce the manual work
devoted to the construction of ML pipelines. Such frameworks intelligently
search among millions of possible ML pipelines - typically containing feature
engineering, model selection and hyper parameters tuning steps - and finally
output an optimal pipeline in terms of predictive accuracy. However, when the
dataset is large, each individual configuration takes longer to execute,
therefore the overall AutoML running times become increasingly high. To this
end, we present SubStrat, an AutoML optimization strategy that tackles the data
size, rather than configuration space. It wraps existing AutoML tools, and
instead of executing them directly on the entire dataset, SubStrat uses a
genetic-based algorithm to find a small yet representative data subset which
preserves a particular characteristic of the full data. It then employs the
AutoML tool on the small subset, and finally, it refines the resulted pipeline
by executing a restricted, much shorter, AutoML process on the large dataset.
Our experimental results, performed on two popular AutoML frameworks,
Auto-Sklearn and TPOT, show that SubStrat reduces their running times by 79%
(on average), with less than 2% average loss in the accuracy of the resulted ML
pipeline.
- Abstract(参考訳): 機械学習(AutoML)フレームワークは、MLパイプライン構築のための手作業を大幅に削減するため、データサイエンティストの武器として重要なツールとなっている。
このようなフレームワークは、機能エンジニアリング、モデル選択、ハイパーパラメータチューニングステップを含む数百万の可能なMLパイプラインをインテリジェントに検索し、最終的に予測精度の観点から最適なパイプラインを出力する。
しかしながら、データセットが大きくなると、個々の設定の実行に時間がかかるため、全体のAutoML実行時間が増加します。
そこで本研究では,構成空間ではなく,データサイズに取り組むautoml最適化戦略であるsubstratを提案する。
既存のAutoMLツールをラップし、データセット全体を直接実行する代わりに、SubStratは遺伝子ベースのアルゴリズムを使用して、完全なデータの特定の特性を保持する、小さくて代表的なデータサブセットを見つける。
その後、小さなサブセットにAutoMLツールを使用し、最後に、大きなデータセット上で制限された、はるかに短いAutoMLプロセスを実行することで、結果のパイプラインを洗練する。
代表的な2つのAutoMLフレームワークであるAuto-SklearnとTPOTで実施された実験結果は、SubStratが実行時間を79%削減し(平均で)、結果のMLパイプラインの精度が2%以下になったことを示している。
関連論文リスト
- AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Large Language Models for Automated Data Science: Introducing CAAFE for
Context-Aware Automated Feature Engineering [52.09178018466104]
データセットのセマンティックな特徴を生成するために、コンテキスト認識自動特徴工学(CAAFE)を導入する。
方法論的には単純だが、CAAFEは14のデータセットのうち11のパフォーマンスを改善している。
我々は,AutoMLシステムの範囲をセマンティックなAutoMLに拡張できるコンテキスト認識ソリューションの重要性を強調した。
論文 参考訳(メタデータ) (2023-05-05T09:58:40Z) - AutoEn: An AutoML method based on ensembles of predefined Machine
Learning pipelines for supervised Traffic Forecasting [1.6242924916178283]
交通予測(TF)は、将来の交通状況を予測することで交通渋滞を緩和する能力により、関連性が高まっている。
TFは、モデル選択問題(MSP)として知られる機械学習パラダイムに大きな課題を提起する。
事前に定義されたMLパイプラインの集合からマルチクラス化アンサンブルを自動生成する,シンプルで効率的な手法であるAutoEnを紹介する。
論文 参考訳(メタデータ) (2023-03-19T18:37:18Z) - SapientML: Synthesizing Machine Learning Pipelines by Learning from
Human-Written Solutions [28.718446733713183]
既存のデータセットとその人手によるパイプラインのコーパスから学習できるAutoML SapientMLを提案する。
我々は、170のデータセットにまたがる1094のパイプラインのトレーニングコーパスを作成し、41のベンチマークデータセットでSapientMLを評価した。
我々の評価によると、SapientMLは27のベンチマークでベストまたは同等の精度で、第2のツールでは9のインスタンスでパイプラインを生成できない。
論文 参考訳(メタデータ) (2022-02-18T20:45:47Z) - VolcanoML: Speeding up End-to-End AutoML via Scalable Search Space
Decomposition [57.06900573003609]
VolcanoMLは、大規模なAutoML検索スペースを小さなものに分解するフレームワークである。
最新のデータベースシステムでサポートされているような、Volcanoスタイルの実行モデルをサポートしている。
評価の結果,VolcanoMLは,AutoMLにおける検索空間分解の表現性を向上するだけでなく,分解戦略の実際の発見につながることが示された。
論文 参考訳(メタデータ) (2021-07-19T13:23:57Z) - Incremental Search Space Construction for Machine Learning Pipeline
Synthesis [4.060731229044571]
automated machine learning(automl)は、マシンラーニング(ml)パイプラインの自動構築を目的とする。
パイプライン構築のためのメタ機能に基づくデータ中心アプローチを提案する。
確立されたAutoMLベンチマークで使用した28データセットに対して,アプローチの有効性と競争性を実証する。
論文 参考訳(メタデータ) (2021-01-26T17:17:49Z) - Fast, Accurate, and Simple Models for Tabular Data via Augmented
Distillation [97.42894942391575]
本研究では、FAST-DADを用いて、任意の複雑なアンサンブル予測を、高木、無作為林、深層ネットワークなどの個々のモデルに抽出する。
我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。
論文 参考訳(メタデータ) (2020-06-25T09:57:47Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - Evolution of Scikit-Learn Pipelines with Dynamic Structured Grammatical
Evolution [1.5224436211478214]
本稿では、動的構造文法進化(DSGE)をScikit-Learn分類パイプラインの進化に適応させる新しい文法ベースのフレームワークについて述べる。
実験結果は、AutoML-DSGEを他の文法ベースのAutoMLフレームワークであるResilient ClassificationPipeline Evolution (RECIPE)と比較することを含む。
論文 参考訳(メタデータ) (2020-04-01T09:31:34Z) - AutoGluon-Tabular: Robust and Accurate AutoML for Structured Data [120.2298620652828]
オープンソースのAutoMLフレームワークであるAutoGluon-Tabularを紹介します。
KaggleとOpenML AutoML Benchmarkの50の分類および回帰タスクからなるスイートのテストによると、AutoGluonはより速く、より堅牢で、はるかに正確である。
論文 参考訳(メタデータ) (2020-03-13T23:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。