論文の概要: VEGA: Towards an End-to-End Configurable AutoML Pipeline
- arxiv url: http://arxiv.org/abs/2011.01507v4
- Date: Thu, 26 Nov 2020 05:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:21:24.925801
- Title: VEGA: Towards an End-to-End Configurable AutoML Pipeline
- Title(参考訳): VEGA: エンドツーエンドのAutoMLパイプラインを目指す
- Authors: Bochao Wang, Hang Xu, Jiajin Zhang, Chen Chen, Xiaozhi Fang, Yixing
Xu, Ning Kang, Lanqing Hong, Chenhan Jiang, Xinyue Cai, Jiawei Li, Fengwei
Zhou, Yong Li, Zhicheng Liu, Xinghao Chen, Kai Han, Han Shu, Dehua Song,
Yunhe Wang, Wei Zhang, Chunjing Xu, Zhenguo Li, Wenzhi Liu, Tong Zhang
- Abstract要約: VEGAは効率よく包括的なAutoMLフレームワークで、複数のハードウェアプラットフォームに互換性があり、最適化されている。
VEGAは既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見する。
- 参考スコア(独自算出の注目度): 101.07003005736719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Machine Learning (AutoML) is an important industrial solution for
automatic discovery and deployment of the machine learning models. However,
designing an integrated AutoML system faces four great challenges of
configurability, scalability, integrability, and platform diversity. In this
work, we present VEGA, an efficient and comprehensive AutoML framework that is
compatible and optimized for multiple hardware platforms. a) The VEGA pipeline
integrates various modules of AutoML, including Neural Architecture Search
(NAS), Hyperparameter Optimization (HPO), Auto Data Augmentation, Model
Compression, and Fully Train. b) To support a variety of search algorithms and
tasks, we design a novel fine-grained search space and its description language
to enable easy adaptation to different search algorithms and tasks. c) We
abstract the common components of deep learning frameworks into a unified
interface. VEGA can be executed with multiple back-ends and hardwares.
Extensive benchmark experiments on multiple tasks demonstrate that VEGA can
improve the existing AutoML algorithms and discover new high-performance models
against SOTA methods, e.g. the searched DNet model zoo for Ascend 10x faster
than EfficientNet-B5 and 9.2x faster than RegNetX-32GF on ImageNet. VEGA is
open-sourced at https://github.com/huawei-noah/vega.
- Abstract(参考訳): Automated Machine Learning (AutoML)は、機械学習モデルの自動発見とデプロイのための重要な産業ソリューションである。
しかし、統合されたAutoMLシステムの設計には、設定性、スケーラビリティ、統合性、プラットフォームの多様性の4つの大きな課題がある。
本稿では,複数のハードウェアプラットフォームに互換性と最適化を施した,効率的かつ包括的なAutoMLフレームワークであるVEGAを紹介する。
a) VEGAパイプラインは、Neural Architecture Search(NAS)、Hyperparameter Optimization(HPO)、Auto Data Augmentation、Model Compression、Fully Trainなど、AutoMLのさまざまなモジュールを統合する。
b) 様々な検索アルゴリズムとタスクをサポートするため,我々は,新しいきめ細かな検索空間とその記述言語を設計し,異なる検索アルゴリズムやタスクへの適応を容易にする。
c) ディープラーニングフレームワークの共通コンポーネントを統一インターフェースに抽象化する。
VEGAは複数のバックエンドとハードウェアで実行できる。
複数のタスクに関する大規模なベンチマーク実験は、VEGAが既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見することを実証している。例えば、検索されたDNetモデル動物園は、EfficientNet-B5より10倍、ImageNet上のRegNetX-32GFより9.2倍高速である。
VEGAはhttps://github.com/huawei-noah/vega.comでオープンソース化されている。
関連論文リスト
- Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - AutoTransfer: AutoML with Knowledge Transfer -- An Application to Graph
Neural Networks [75.11008617118908]
AutoML技術は、各タスクをスクラッチから独立して考慮し、高い計算コストをもたらす。
本稿では,従来の設計知識を新たな関心事に伝達することで,検索効率を向上させるAutoTransferを提案する。
論文 参考訳(メタデータ) (2023-03-14T07:23:16Z) - GANDALF: Gated Adaptive Network for Deep Automated Learning of Features [0.0]
GANDALF (Deep Automated Learning of Features) のためのGated Adaptive Network
GANDALF は Gated Feature Learning Unit (GFLU) と呼ばれるゲーティング機構を備えた新しい表処理ユニットに依存している。
我々は、GANDALFがXGBoost、SAINT、FT-TransformersなどのSOTAアプローチより優れているか、劣っていることを実証する。
論文 参考訳(メタデータ) (2022-07-18T12:12:24Z) - AutoCoMet: Smart Neural Architecture Search via Co-Regulated Shaping
Reinforcement [5.026843258629663]
AutoCoMetは、さまざまなタイプのデバイスハードウェアとタスクコンテキストに最適化された最も適切なディープモデルアーキテクチャを3倍高速に学習する。
我々は,高忠実度ハードウェアメタビヘイビア予測器と協調して,スマートで高速なNASフレームワークを構築した。
論文 参考訳(メタデータ) (2022-03-29T10:11:22Z) - Pruning Self-attentions into Convolutional Layers in Single Path [89.55361659622305]
ビジョントランスフォーマー(ViT)は、様々なコンピュータビジョンタスクに対して印象的なパフォーマンスを実現している。
トレーニング済みのViTを効率よく自動圧縮するSPViT(Single-Path Vision Transformer pruning)を提案する。
われわれのSPViTはDeiT-Bで52.0%のFLOPをトリミングできる。
論文 参考訳(メタデータ) (2021-11-23T11:35:54Z) - AutoGL: A Library for Automated Graph Learning [67.63587865669372]
グラフ上での機械学習を自動化するための,最初の専用ライブラリであるAutomated Graph Learning(AutoGL)を紹介する。
AutoGLはオープンソースで、使いやすく、拡張も柔軟です。
また、パイプラインのカスタマイズとアプリケーションの強化を容易にする、AutoGLの軽量バージョンであるAutoGL-lightも紹介します。
論文 参考訳(メタデータ) (2021-04-11T10:49:23Z) - Resource-Aware Pareto-Optimal Automated Machine Learning Platform [1.6746303554275583]
新プラットフォーム Resource-Aware AutoML (RA-AutoML)
RA-AutoMLは、フレキシブルで一般化されたアルゴリズムで、複数の目的に合わせた機械学習モデルを構築することができる。
論文 参考訳(メタデータ) (2020-10-30T19:37:48Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。