論文の概要: Accelerator-aware Neural Network Design using AutoML
- arxiv url: http://arxiv.org/abs/2003.02838v1
- Date: Thu, 5 Mar 2020 21:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:02:39.139971
- Title: Accelerator-aware Neural Network Design using AutoML
- Title(参考訳): automlを用いたアクセラレータアウェアニューラルネットワーク設計
- Authors: Suyog Gupta, Berkin Akin
- Abstract要約: We present a class of computer vision model designed using hardware-aware neural architecture search and customd to run on the Edge TPU。
CoralデバイスにおけるEdge TPUでは、これらのモデルはリアルタイムな画像分類性能を実現しつつ、データセンターで実行される大規模で計算量の多いモデルでのみ見られる精度を実現している。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While neural network hardware accelerators provide a substantial amount of
raw compute throughput, the models deployed on them must be co-designed for the
underlying hardware architecture to obtain the optimal system performance. We
present a class of computer vision models designed using hardware-aware neural
architecture search and customized to run on the Edge TPU, Google's neural
network hardware accelerator for low-power, edge devices. For the Edge TPU in
Coral devices, these models enable real-time image classification performance
while achieving accuracy typically seen only with larger, compute-heavy models
running in data centers. On Pixel 4's Edge TPU, these models improve the
accuracy-latency tradeoff over existing SoTA mobile models.
- Abstract(参考訳): ニューラルネットワークハードウェアアクセラレータは、相当量の生の計算スループットを提供するが、それらの上にデプロイされたモデルは、最適なシステム性能を得るために基盤となるハードウェアアーキテクチャのために設計されなければならない。
本稿では,ハードウェア対応のニューラルアーキテクチャ検索を用いて設計し,googleの低消費電力エッジデバイス用ニューラルネットワークハードウェアアクセラレータであるedge tpu上で動作するようにカスタマイズしたコンピュータビジョンモデルを提案する。
CoralデバイスにおけるEdge TPUでは、これらのモデルはリアルタイムな画像分類性能を実現し、データセンターで実行される大規模で計算量の多いモデルでは通常見られる精度を実現している。
Pixel 4のEdge TPUでは、既存のSoTAモバイルモデルよりも精度とレイテンシのトレードオフが改善されている。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Evolution of Convolutional Neural Network (CNN): Compute vs Memory
bandwidth for Edge AI [0.0]
この記事では、Edge AIのコンテキストにおけるCNN計算要求とメモリ帯域幅の関係について検討する。
モデル複雑性が計算要求とメモリアクセスパターンの両方に与える影響について検討する。
この分析は、エッジデバイス上でのCNNパフォーマンス向上において、効率的なアーキテクチャと潜在的なハードウェアアクセラレータの設計に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-24T09:11:22Z) - Benchmarking GPU and TPU Performance with Graph Neural Networks [0.0]
この研究は、現実のパターン認識問題を解決するために開発されたグラフニューラルネットワーク(GNN)を用いてGPUとTPUのパフォーマンストレーニングを分析し、比較する。
スパースデータに作用する新しいモデルのクラスを特徴付けることは、ディープラーニングライブラリや将来のAIアクセラレータの設計を最適化するのに有効である。
論文 参考訳(メタデータ) (2022-10-21T21:03:40Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - Efficient Low-Latency Dynamic Licensing for Deep Neural Network
Deployment on Edge Devices [0.0]
エッジデバイス上でのディープニューラルネットワークの展開と処理を解決するアーキテクチャを提案する。
このアーキテクチャを採用することで、デバイスの低レイテンシモデル更新が可能になる。
論文 参考訳(メタデータ) (2021-02-24T09:36:39Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。