論文の概要: Generalized Latency Performance Estimation for Once-For-All Neural
Architecture Search
- arxiv url: http://arxiv.org/abs/2101.00732v1
- Date: Mon, 4 Jan 2021 00:48:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 23:00:35.489020
- Title: Generalized Latency Performance Estimation for Once-For-All Neural
Architecture Search
- Title(参考訳): ニューラルアーキテクチャ探索のための一般化レイテンシ性能推定法
- Authors: Muhtadyuzzaman Syed and Arvind Akpuram Srinivasan
- Abstract要約: 特定のハードウェアとNAS検索空間で訓練されたベースモデルを用いた微調整を含む2つの汎用性戦略を紹介します。
ProxylessNASに比べて50%以上低いRMSE損失を達成できる待ち時間予測モデル群を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has enabled the possibility of automated
machine learning by streamlining the manual development of deep neural network
architectures defining a search space, search strategy, and performance
estimation strategy. To solve the need for multi-platform deployment of
Convolutional Neural Network (CNN) models, Once-For-All (OFA) proposed to
decouple Training and Search to deliver a one-shot model of sub-networks that
are constrained to various accuracy-latency tradeoffs. We find that the
performance estimation strategy for OFA's search severely lacks
generalizability of different hardware deployment platforms due to single
hardware latency lookup tables that require significant amount of time and
manual effort to build beforehand. In this work, we demonstrate the framework
for building latency predictors for neural network architectures to address the
need for heterogeneous hardware support and reduce the overhead of lookup
tables altogether. We introduce two generalizability strategies which include
fine-tuning using a base model trained on a specific hardware and NAS search
space, and GPU-generalization which trains a model on GPU hardware parameters
such as Number of Cores, RAM Size, and Memory Bandwidth. With this, we provide
a family of latency prediction models that achieve over 50% lower RMSE loss as
compared to with ProxylessNAS. We also show that the use of these latency
predictors match the NAS performance of the lookup table baseline approach if
not exceeding it in certain cases.
- Abstract(参考訳): ニューラルネットワーク検索(NAS)は、検索空間、探索戦略、パフォーマンス推定戦略を定義するディープニューラルネットワークアーキテクチャのマニュアル開発を合理化することで、機械学習の自動化を可能にする。
畳み込みニューラルネットワーク(CNN)モデルのマルチプラットフォーム展開の必要性を解決するため、Imped-For-All(OFA)はトレーニングと検索を分離して、さまざまな精度とレイテンシのトレードオフに制約のあるサブネットワークのワンショットモデルを提供することを提案した。
ofaの検索性能推定戦略は,単一のハードウェアレイテンシルックアップテーブルによって,事前構築にかなりの時間と手作業を要するため,異なるハードウェアデプロイメントプラットフォームの汎用性が極めて不足していることが判明した。
本稿では,ヘテロジニアスなハードウェアサポートの必要性に対処し,ルックアップテーブルのオーバーヘッドを削減するために,ニューラルネットワークアーキテクチャのレイテンシ予測器を構築するためのフレームワークを実証する。
本稿では、特定のハードウェアとNAS検索空間でトレーニングされたベースモデルを用いた微調整と、コア数、RAMサイズ、メモリ帯域幅などのGPUハードウェアパラメータでモデルをトレーニングするGPU一般化という2つの一般化可能性戦略を紹介する。
これにより、ProxylessNASと比較して50%以上低いRMSE損失を達成できる待ち時間予測モデルが提供されます。
また,これらのレイテンシ予測器の使用が,特定の場合において,ルックアップテーブルのベースラインアプローチのnas性能に適合することを示した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Structural Pruning of Pre-trained Language Models via Neural Architecture Search [7.833790713816726]
事前学習された言語モデル(PLM)は、ラベル付きデータに基づいて微調整された自然言語理解タスクの最先端である。
本稿では, 最適トレードオフ効率を有する微調整ネットワークのサブ部分を見つけるために, 構造解析のためのニューラルアーキテクチャ探索(NAS)について検討する。
論文 参考訳(メタデータ) (2024-05-03T17:34:57Z) - A General-Purpose Transferable Predictor for Neural Architecture Search [22.883809911265445]
本稿では,探索空間を横断的に移動可能なニューラルネットワーク探索(NAS)のための汎用ニューラルネットワーク予測器を提案する。
NAS-Bench-101, 201, 301の実験結果から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-21T17:28:05Z) - Neural Architecture Search for Improving Latency-Accuracy Trade-off in
Split Computing [5.516431145236317]
スプリットコンピューティングは、IoTシステムにディープラーニングをデプロイする際のプライバシとレイテンシの問題に対処する、新たな機械学習推論技術である。
スプリットコンピューティングでは、ニューラルネットワークモデルは、エッジサーバとIoTデバイスをネットワークを介して分離し、協調的に処理される。
本稿ではスプリットコンピューティングのためのニューラルアーキテクチャサーチ(NAS)手法を提案する。
論文 参考訳(メタデータ) (2022-08-30T03:15:43Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。