論文の概要: Neural Architecture Search for Intel Movidius VPU
- arxiv url: http://arxiv.org/abs/2305.03739v1
- Date: Fri, 5 May 2023 01:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 19:39:58.262176
- Title: Neural Architecture Search for Intel Movidius VPU
- Title(参考訳): Intel Movidius VPUのニューラルネットワーク検索
- Authors: Qian Xu, Victor Li and Crews Darren S
- Abstract要約: 我々は、ハードウェア対応ニューラルネットワーク(NAS)をIntel Movidius VPU(Vision Processor Units)に拡張する。
我々は、Mobilenet-v2-1.4上での1.3xfps加速とResnet50上での2.2x加速を同じ精度で達成できる。
VPU上の超分解能タスクでは、EDSR3と比較して1.08xPSNRと6倍高いfpsを達成することができる。
- 参考スコア(独自算出の注目度): 3.3839643336227287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hardware-aware Neural Architecture Search (NAS) technologies have been
proposed to automate and speed up model design to meet both quality and
inference efficiency requirements on a given hardware. Prior arts have shown
the capability of NAS on hardware specific network design. In this whitepaper,
we further extend the use of NAS to Intel Movidius VPU (Vision Processor
Units). To determine the hardware-cost to be incorporated into the NAS process,
we introduced two methods: pre-collected hardware-cost on device and
device-specific hardware-cost model VPUNN. With the help of NAS, for
classification task on VPU, we can achieve 1.3x fps acceleration over
Mobilenet-v2-1.4 and 2.2x acceleration over Resnet50 with the same accuracy
score. For super resolution task on VPU, we can achieve 1.08x PSNR and 6x
higher fps compared with EDSR3.
- Abstract(参考訳): ハードウェア対応ニューラルアーキテクチャサーチ(NAS)技術は、与えられたハードウェアの品質と推論効率の両方を満たすためにモデル設計を自動化および高速化するために提案されている。
先行技術は、ハードウェア固有のネットワーク設計におけるNASの能力を示している。
このホワイトペーパーでは、nasの使用をさらにintel movidius vpu(vision processor units)に拡張します。
NASプロセスに組み込むハードウェアコストを決定するために,デバイスにプリコンパイルされたハードウェアコストと,デバイス固有のハードウェアコストモデルVPUNNを導入した。
VPUの分類タスクにおいてNASの助けを借りて、Mobilenet-v2-1.4で1.3x fps、Resnet50で2.2xの加速度を同じ精度で達成できる。
VPU上の超分解能タスクでは、EDSR3と比較して1.08xPSNRと6倍高いfpsを達成することができる。
関連論文リスト
- Accel-NASBench: Sustainable Benchmarking for Accelerator-Aware NAS [3.598880812393792]
本稿では,ベンチマーク構築のコストをかなりのマージンで削減する,訓練プロキシの検索を可能にする手法を提案する。
ベンチマークは正確で,最先端のハードウェア対応モデルをコストゼロで検索できることを示す。
論文 参考訳(メタデータ) (2024-04-09T06:23:41Z) - Multi-objective Differentiable Neural Architecture Search [58.67218773054753]
本研究では,パフォーマンスとハードウェアメトリクスのトレードオフのために,ユーザの好みを符号化するNASアルゴリズムを提案する。
提案手法は,既存のMOO NAS手法を,定性的に異なる検索空間やデータセットの広い範囲で性能良くする。
論文 参考訳(メタデータ) (2024-02-28T10:09:04Z) - Search-time Efficient Device Constraints-Aware Neural Architecture
Search [6.527454079441765]
コンピュータビジョンや自然言語処理といったディープラーニング技術は、計算コストが高く、メモリ集約的です。
ニューラルアーキテクチャサーチ(NAS)によるデバイス制約に最適化されたタスク固有のディープラーニングアーキテクチャの構築を自動化する。
本稿では,エッジデバイス制約を組み込んだ高速ニューラルネットワークアーキテクチャ探索の原理的手法であるDCA-NASを提案する。
論文 参考訳(メタデータ) (2023-07-10T09:52:28Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - Evolutionary Neural Cascade Search across Supernetworks [68.8204255655161]
ENCAS - Evolutionary Neural Cascade Searchを紹介する。
ENCASは、複数の事前訓練されたスーパーネットを探索するために使用することができる。
我々は、一般的なコンピュータビジョンベンチマークでEMCASをテストする。
論文 参考訳(メタデータ) (2022-03-08T11:06:01Z) - EH-DNAS: End-to-End Hardware-aware Differentiable Neural Architecture
Search [32.23992012207146]
エンド・ツー・エンドハードウェア・アウェアDNAS(EH-DNAS)を用いて、ハードウェア効率の良いディープニューラルネットワークを様々なプラットフォームで提供する。
EH-DNASはハードウェアの性能を、カスタマイズされたアクセラレータで平均14時間、既存のハードウェアプロセッサで平均16時間改善する。
論文 参考訳(メタデータ) (2021-11-24T06:45:30Z) - FLASH: Fast Neural Architecture Search with Hardware Optimization [7.263481020106725]
ニューラルアーキテクチャサーチ(NAS)は、効率的かつ高性能なディープニューラルネットワーク(DNN)を設計するための有望な手法である
本稿では,実ハードウェアプラットフォーム上でのDNNの精度と性能を協調的に最適化する,非常に高速なNAS手法であるFLASHを提案する。
論文 参考訳(メタデータ) (2021-08-01T23:46:48Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - S3NAS: Fast NPU-aware Neural Architecture Search Methodology [2.607400740040335]
S3NASと呼ばれる高速なNPU対応NAS手法を提案し,既存のNASよりも高精度なCNNアーキテクチャを提案する。
TPUv3を使って3時間でネットワークを見つけることができ、11.66ミリ秒のレイテンシでImageNetの82.72%のトップ1の精度を示している。
論文 参考訳(メタデータ) (2020-09-04T04:45:50Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。