論文の概要: AutoCoMet: Smart Neural Architecture Search via Co-Regulated Shaping
Reinforcement
- arxiv url: http://arxiv.org/abs/2203.15408v1
- Date: Tue, 29 Mar 2022 10:11:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 12:21:16.065443
- Title: AutoCoMet: Smart Neural Architecture Search via Co-Regulated Shaping
Reinforcement
- Title(参考訳): AutoCoMet: 共規制型シェーピング強化によるスマートニューラルネットワーク検索
- Authors: Mayukh Das, Brijraj Singh, Harsh Kanti Chheda, Pawan Sharma, Pradeep
NS
- Abstract要約: AutoCoMetは、さまざまなタイプのデバイスハードウェアとタスクコンテキストに最適化された最も適切なディープモデルアーキテクチャを3倍高速に学習する。
我々は,高忠実度ハードウェアメタビヘイビア予測器と協調して,スマートで高速なNASフレームワークを構築した。
- 参考スコア(独自算出の注目度): 5.026843258629663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing suitable deep model architectures, for AI-driven on-device apps and
features, at par with rapidly evolving mobile hardware and increasingly complex
target scenarios is a difficult task. Though Neural Architecture Search
(NAS/AutoML) has made this easier by shifting paradigm from extensive manual
effort to automated architecture learning from data, yet it has major
limitations, leading to critical bottlenecks in the context of mobile devices,
including model-hardware fidelity, prohibitive search times and deviation from
primary target objective(s). Thus, we propose AutoCoMet that can learn the most
suitable DNN architecture optimized for varied types of device hardware and
task contexts, ~ 3x faster. Our novel co-regulated shaping reinforcement
controller together with the high fidelity hardware meta-behavior predictor
produces a smart, fast NAS framework that adapts to context via a generalized
formalism for any kind of multi-criteria optimization.
- Abstract(参考訳): AI駆動のオンデバイスアプリや機能のための適切なディープモデルアーキテクチャの設計は、急速に進化するモバイルハードウェアや、ますます複雑なターゲットシナリオと同等である。
ニューラルネットワーク検索(nas/automl)は、パラダイムを広範囲な手動作業からデータから自動アーキテクチャ学習に移行することで、これを容易にするが、大きな制限があり、モデルハードウェアの忠実性、禁止された検索時間、主要ターゲット目標からの逸脱など、モバイルデバイスのコンテキストにおける重大なボトルネックにつながる。
そこで我々は,さまざまなタイプのデバイスハードウェアやタスクコンテキストに最適化されたDNNアーキテクチャを,約3倍高速に学習できるAutoCoMetを提案する。
提案手法は,高忠実度ハードウェアメタ動作予測器と協調して,任意の種類のマルチクオリティ最適化のための一般化された形式的手法により,文脈に適応するスマートかつ高速なnasフレームワークを製作する。
関連論文リスト
- Combining Neural Architecture Search and Automatic Code Optimization: A Survey [0.8796261172196743]
ハードウェア対応ニューラルアーキテクチャサーチ(HW-NAS)と自動コード最適化(ACO)の2つの特長がある。
HW-NASは正確だがハードウェアフレンドリなニューラルネットワークを自動設計する。
この調査では、これらの2つのテクニックをひとつのフレームワークで組み合わせた最近の研究について調査する。
論文 参考訳(メタデータ) (2024-08-07T22:40:05Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - FreeREA: Training-Free Evolution-based Architecture Search [17.202375422110553]
FreeREAは、トレーニングなしメトリクスの最適化組み合わせを利用してアーキテクチャをランク付けする、独自のセルベースの進化NASアルゴリズムである。
本実験はNAS-Bench-101とNATS-Benchの共通ベンチマークを用いて,フリーレアがモデル自動設計のための高速で効率的かつ効果的な探索手法であることを実証した。
論文 参考訳(メタデータ) (2022-06-17T11:16:28Z) - Towards Tailored Models on Private AIoT Devices: Federated Direct Neural
Architecture Search [22.69123714900226]
デバイス間の非IDデータからハードウェアフレンドリなNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
非IIDデータセットの実験では、提案したソリューションによって達成された最先端の精度効率トレードオフが示されている。
論文 参考訳(メタデータ) (2022-02-23T13:10:01Z) - ISyNet: Convolutional Neural Networks design for AI accelerator [0.0]
現在の最先端アーキテクチャは、モデル複雑さを考慮して、ニューラルアーキテクチャサーチ(NAS)によって発見されている。
本稿では,ニューラルネットワーク探索空間のハードウェア効率の指標として,行列効率測定(MEM),ハードウェア効率の高い演算からなる探索空間,レイテンシを考慮したスケーリング手法を提案する。
我々は、ImageNet上のNPUデバイスの設計アーキテクチャと、下流の分類および検出タスクの一般化能力の利点を示す。
論文 参考訳(メタデータ) (2021-09-04T20:57:05Z) - Resource-Aware Pareto-Optimal Automated Machine Learning Platform [1.6746303554275583]
新プラットフォーム Resource-Aware AutoML (RA-AutoML)
RA-AutoMLは、フレキシブルで一般化されたアルゴリズムで、複数の目的に合わせた機械学習モデルを構築することができる。
論文 参考訳(メタデータ) (2020-10-30T19:37:48Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Towards Automated Neural Interaction Discovery for Click-Through Rate
Prediction [64.03526633651218]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最も重要な機械学習タスクの1つである。
本稿では,AutoCTR と呼ばれる CTR 予測のための自動インタラクションアーキテクチャ探索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T04:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。