論文の概要: Survey on Computer Vision Techniques for Internet-of-Things Devices
- arxiv url: http://arxiv.org/abs/2308.02553v1
- Date: Wed, 2 Aug 2023 03:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:00:32.296793
- Title: Survey on Computer Vision Techniques for Internet-of-Things Devices
- Title(参考訳): インターネット機器のコンピュータビジョン技術に関する調査
- Authors: Ishmeet Kaur and Adwaita Janardhan Jadhav
- Abstract要約: ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョン問題を解決する最先端技術である。
DNNは最先端の結果を得るために数十億のパラメータと演算を必要とする。
この要件により、DNNは計算量、メモリ、エネルギー不足を極端に増加させ、結果として限られたコンピューティングリソースを持つ小さなバッテリ駆動のIoT(Internet-of-Things)デバイスにデプロイすることが困難になる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) are state-of-the-art techniques for solving most
computer vision problems. DNNs require billions of parameters and operations to
achieve state-of-the-art results. This requirement makes DNNs extremely
compute, memory, and energy-hungry, and consequently difficult to deploy on
small battery-powered Internet-of-Things (IoT) devices with limited computing
resources. Deployment of DNNs on Internet-of-Things devices, such as traffic
cameras, can improve public safety by enabling applications such as automatic
accident detection and emergency response.Through this paper, we survey the
recent advances in low-power and energy-efficient DNN implementations that
improve the deployability of DNNs without significantly sacrificing accuracy.
In general, these techniques either reduce the memory requirements, the number
of arithmetic operations, or both. The techniques can be divided into three
major categories: neural network compression, network architecture search and
design, and compiler and graph optimizations. In this paper, we survey both
low-power techniques for both convolutional and transformer DNNs, and summarize
the advantages, disadvantages, and open research problems.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Network, DNN)は、ほとんどのコンピュータビジョン問題を解決する最先端技術である。
DNNは最先端の結果を得るために数十億のパラメータと演算を必要とする。
この要件により、DNNは計算量、メモリ、エネルギー不足を極端に増加させ、結果として限られたコンピューティングリソースを持つ小さなバッテリ駆動のIoT(Internet-of-Things)デバイスにデプロイすることが困難になる。
交通カメラなどのインターネット・オブ・Things機器へのDNNの展開は、自動事故検出や緊急応答などの応用を可能にすることで公衆の安全を向上することができるが、本稿では、DNNの展開性を大幅に向上させることなく、低消費電力かつ省エネなDNN実装の最近の進歩について調査する。
一般に、これらの技法はメモリの要求量、演算演算数、またはその両方を減少させる。
これらのテクニックは、ニューラルネットワーク圧縮、ネットワークアーキテクチャ検索と設計、コンパイラとグラフ最適化の3つの主要なカテゴリに分けられる。
本稿では,畳み込みおよび変圧器の低消費電力化技術について検討し,その利点,欠点,オープン研究の問題点を概説する。
関連論文リスト
- Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - Sparsifying Binary Networks [3.8350038566047426]
バイナリニューラルネットワーク(BNN)は、完全精度のディープニューラルネットワーク(DNN)と同等の精度で複雑なタスクを解く能力を示した。
最近の改善にもかかわらず、非常に限られたリソースを持つ特定のデバイスで不十分な、固定的で制限された圧縮要因に悩まされている。
本稿では,BNNの疎性を導入した新しいモデルとトレーニング手法であるスパースバイナリニューラルネットワーク(SBNN)と,ネットワークの重みをバイナライズする新しい量子化関数を提案する。
論文 参考訳(メタデータ) (2022-07-11T15:54:41Z) - Hardware Approximate Techniques for Deep Neural Network Accelerators: A
Survey [4.856755747052137]
Deep Neural Networks(DNN)は非常に人気があり、機械学習(ML)における様々な認知タスクのパフォーマンスが高い。
近年のDNNの進歩は多くのタスクにおいて人間の精度を超えたが、計算の複雑さのコストがかかる。
本稿では,DNN加速器のハードウェア近似技術に関する包括的調査と解析を行う。
論文 参考訳(メタデータ) (2022-03-16T16:33:13Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Compacting Deep Neural Networks for Internet of Things: Methods and
Applications [14.611047945621511]
ディープニューラルネットワーク(DNN)は複雑なタスクの完了に大きな成功を収めている。
DNNは階層構造が複雑になるため、計算コストとストレージ消費が必然的に高くなる。
本稿では,コンパクト化dnns技術に関する包括的研究を行う。
論文 参考訳(メタデータ) (2021-03-20T03:18:42Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - A Survey of Methods for Low-Power Deep Learning and Computer Vision [0.4234843176066353]
ディープニューラルネットワーク(DNN)は多くのコンピュータビジョンタスクで成功している。
最も正確なDNNは数百万のパラメータと演算を必要とし、エネルギー、計算、メモリを集中的に処理する。
近年の研究では、DNNモデルの精度を著しく低下させることなく、メモリ要件、エネルギー消費、演算数を削減することで改善されている。
論文 参考訳(メタデータ) (2020-03-24T18:47:24Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。