論文の概要: Optimizing Neural Network for Computer Vision task in Edge Device
- arxiv url: http://arxiv.org/abs/2110.00791v1
- Date: Sat, 2 Oct 2021 12:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 13:36:48.103553
- Title: Optimizing Neural Network for Computer Vision task in Edge Device
- Title(参考訳): エッジデバイスにおけるコンピュータビジョンタスクのための最適化ニューラルネットワーク
- Authors: Ranjith M S, S Parameshwara, Pavan Yadav A, Shriganesh Hegde
- Abstract要約: エッジデバイス自体に畳み込みニューラルネットワークをデプロイします。
エッジデバイスの計算コストは、モデル内のパラメータの浮動小数点精度を下げることによって削減される。
これにより、エッジデバイスはニューラルネットワークから自身で予測できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of computer vision has grown very rapidly in the past few years due
to networks like convolution neural networks and their variants. The memory
required to store the model and computational expense are very high for such a
network limiting it to deploy on the edge device. Many times, applications rely
on the cloud but that makes it hard for working in real-time due to round-trip
delays. We overcome these problems by deploying the neural network on the edge
device itself. The computational expense for edge devices is reduced by
reducing the floating-point precision of the parameters in the model. After
this the memory required for the model decreases and the speed of the
computation increases where the performance of the model is least affected.
This makes an edge device to predict from the neural network all by itself.
- Abstract(参考訳): コンピュータビジョンの分野は、畳み込みニューラルネットワークとその変種のようなネットワークによって、ここ数年で急速に成長している。
モデルを保存するのに必要なメモリと計算コストは、エッジデバイスにデプロイすることを制限するネットワークにとって非常に高い。
多くの場合、アプリケーションはクラウドに依存しますが、ラウンドトリップの遅延のため、リアルタイムに作業するのは難しくなります。
我々は、エッジデバイス自体にニューラルネットワークを配置することで、これらの問題を克服する。
エッジデバイスの計算コストは、モデル内のパラメータの浮動小数点精度を下げることによって削減される。
その後、モデルに必要なメモリが減少し、モデルの性能がほとんど影響しない場合に計算速度が増加する。
これにより、ニューラルネットワークからそれ自体で予測できるエッジデバイスが作られる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - OLLA: Decreasing the Memory Usage of Neural Networks by Optimizing the
Lifetime and Location of Arrays [6.418232942455968]
OLLAは、ニューラルネットワークのトレーニングに使用されるテンソルの寿命とメモリ位置を最適化するアルゴリズムである。
問題のエンコーディングを単純化し、最先端のニューラルネットワークのサイズにスケールするためのアプローチを可能にするために、いくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T02:39:13Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - perf4sight: A toolflow to model CNN training performance on Edge GPUs [16.61258138725983]
この研究は、CNNのトレーニングメモリフットプリントとレイテンシを予測する正確なモデルを開発するための自動化手法であるperf4sightを提案する。
フレームワークはPyTorch、ターゲットデバイスはNVIDIA Jetson TX2、それぞれ95%と91%の精度でトレーニングメモリフットプリントとレイテンシを予測する。
論文 参考訳(メタデータ) (2021-08-12T07:55:37Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Robust error bounds for quantised and pruned neural networks [1.8083503268672914]
機械学習のアルゴリズムは、データとアルゴリズムを保存し、訓練し、デバイス上でローカルに分散化しようとしている。
デバイスハードウェアは、このセットアップにおけるモデル機能の主要なボトルネックとなり、スリム化され、より効率的なニューラルネットワークの必要性を生み出します。
半確定プログラムを導入して、ニューラルネットワークのプルーニングや定量化による最悪のケースエラーをバインドする。
計算されたバウンダリは、安全クリティカルなシステムにデプロイした場合に、これらのアルゴリズムの性能に確実性をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-11-30T22:19:44Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - Ordering Chaos: Memory-Aware Scheduling of Irregularly Wired Neural
Networks for Edge Devices [10.876317610988059]
我々は、SERENITYと呼ばれるメモリ認識コンパイラを提案し、最適なメモリフットプリントでスケジュールを見つけるシーケンスを見つける。
私たちのソリューションは、最適値を超えたさらなる削減を可能にするグラフ書き換え技術も備えています。
論文 参考訳(メタデータ) (2020-03-04T23:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。