論文の概要: eTOP: Early Termination of Pipelines for Faster Training of AutoML
Systems
- arxiv url: http://arxiv.org/abs/2304.08597v1
- Date: Mon, 17 Apr 2023 20:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:30:29.713614
- Title: eTOP: Early Termination of Pipelines for Faster Training of AutoML
Systems
- Title(参考訳): eTOP: AutoMLシステムの高速トレーニングのためのパイプラインの早期終了
- Authors: Haoxiang Zhang, Juliana Freire, Yash Garg
- Abstract要約: 適切なAI/MLモデルを見つけるのは、複雑でコストのかかるプロセスです。
我々は,任意のAutoMLシステム上で動作するeTOPフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.933957727351666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in software and hardware technologies have enabled the
use of AI/ML models in everyday applications has significantly improved the
quality of service rendered. However, for a given application, finding the
right AI/ML model is a complex and costly process, that involves the
generation, training, and evaluation of multiple interlinked steps (called
pipelines), such as data pre-processing, feature engineering, selection, and
model tuning. These pipelines are complex (in structure) and costly (both in
compute resource and time) to execute end-to-end, with a hyper-parameter
associated with each step. AutoML systems automate the search of these
hyper-parameters but are slow, as they rely on optimizing the pipeline's end
output. We propose the eTOP Framework which works on top of any AutoML system
and decides whether or not to execute the pipeline to the end or terminate at
an intermediate step. Experimental evaluation on 26 benchmark datasets and
integration of eTOPwith MLBox4 reduces the training time of the AutoML system
upto 40x than baseline MLBox.
- Abstract(参考訳): ソフトウェアとハードウェア技術の最近の進歩により、日々のアプリケーションでAI/MLモデルを使用することで、サービス品質が大幅に向上した。
しかしながら、あるアプリケーションでは、適切なai/mlモデルを見つけることは複雑でコストのかかるプロセスであり、データ前処理、機能工学、選択、モデルチューニングなど、複数の相互リンクされたステップ(パイプラインと呼ばれる)の生成、トレーニング、評価を含む。
これらのパイプラインは複雑(構造上)でコストがかかる(計算リソースと時間の両方で)ため、各ステップに関連付けられたハイパーパラメータがエンドツーエンドで実行される。
AutoMLシステムはこれらのハイパーパラメータの検索を自動化するが、パイプラインの出力の最適化に依存するため遅い。
我々は,任意のAutoMLシステム上で動作するeTOPフレームワークを提案し,パイプラインを最後まで実行するか,中間ステップで終了するかを決定する。
26のベンチマークデータセットの実験的評価とetopwith mlbox4の統合により、automlシステムのトレーニング時間はベースラインのmlboxの40倍に短縮される。
関連論文リスト
- AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - AutoEn: An AutoML method based on ensembles of predefined Machine
Learning pipelines for supervised Traffic Forecasting [1.6242924916178283]
交通予測(TF)は、将来の交通状況を予測することで交通渋滞を緩和する能力により、関連性が高まっている。
TFは、モデル選択問題(MSP)として知られる機械学習パラダイムに大きな課題を提起する。
事前に定義されたMLパイプラインの集合からマルチクラス化アンサンブルを自動生成する,シンプルで効率的な手法であるAutoEnを紹介する。
論文 参考訳(メタデータ) (2023-03-19T18:37:18Z) - OmniForce: On Human-Centered, Large Model Empowered and Cloud-Edge
Collaborative AutoML System [85.8338446357469]
我々は人間中心のAutoMLシステムであるOmniForceを紹介した。
我々は、OmniForceがAutoMLシステムを実践し、オープン環境シナリオにおける適応型AIを構築する方法について説明する。
論文 参考訳(メタデータ) (2023-03-01T13:35:22Z) - SubStrat: A Subset-Based Strategy for Faster AutoML [5.833272638548153]
SubStratは、設定スペースではなく、データサイズに取り組むAutoML最適化戦略である。
既存のAutoMLツールをラップし、データセット全体を直接実行する代わりに、SubStratは遺伝的アルゴリズムを使用して小さなサブセットを見つける。
その後、小さなサブセットにAutoMLツールを使用し、最後に、大きなデータセット上で制限された、はるかに短いAutoMLプロセスを実行することで、結果のパイプラインを洗練する。
論文 参考訳(メタデータ) (2022-06-07T07:44:06Z) - SapientML: Synthesizing Machine Learning Pipelines by Learning from
Human-Written Solutions [28.718446733713183]
既存のデータセットとその人手によるパイプラインのコーパスから学習できるAutoML SapientMLを提案する。
我々は、170のデータセットにまたがる1094のパイプラインのトレーニングコーパスを作成し、41のベンチマークデータセットでSapientMLを評価した。
我々の評価によると、SapientMLは27のベンチマークでベストまたは同等の精度で、第2のツールでは9のインスタンスでパイプラインを生成できない。
論文 参考訳(メタデータ) (2022-02-18T20:45:47Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - VolcanoML: Speeding up End-to-End AutoML via Scalable Search Space
Decomposition [57.06900573003609]
VolcanoMLは、大規模なAutoML検索スペースを小さなものに分解するフレームワークである。
最新のデータベースシステムでサポートされているような、Volcanoスタイルの実行モデルをサポートしている。
評価の結果,VolcanoMLは,AutoMLにおける検索空間分解の表現性を向上するだけでなく,分解戦略の実際の発見につながることが示された。
論文 参考訳(メタデータ) (2021-07-19T13:23:57Z) - AutoWeka4MCPS-AVATAR: Accelerating Automated Machine Learning Pipeline
Composition and Optimisation [13.116806430326513]
本稿では,サロゲートモデル(AVATAR)を用いて,実行せずにMLパイプラインの有効性を評価する手法を提案する。
AVATARは、データセットの特徴に対するMLアルゴリズムの機能と効果を自動的に学習することで、知識ベースを生成する。
AVATARはその妥当性を評価するためにオリジナルのMLパイプラインを実行する代わりに、MLパイプラインコンポーネントの機能と効果によって構築されたサロゲートモデルを評価する。
論文 参考訳(メタデータ) (2020-11-21T14:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。