論文の概要: Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors
- arxiv url: http://arxiv.org/abs/2205.12781v1
- Date: Wed, 25 May 2022 13:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 19:46:38.942253
- Title: Ultra-compact Binary Neural Networks for Human Activity Recognition on
RISC-V Processors
- Title(参考訳): RISC-Vプロセッサ上での人間活動認識のための超コンパクトバイナリニューラルネットワーク
- Authors: Francesco Daghero, Chen Xie, Daniele Jahier Pagliari, Alessio
Burrello, Marco Castellano, Luca Gandolfi, Andrea Calimera, Enrico Macii,
Massimo Poncino
- Abstract要約: HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて、関連する推論タスクである。
本稿では、ディープニューラルネットワークに基づくHARの新たな実装と、BNN(Binary Neural Networks)の高精度な実装を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
- 参考スコア(独自算出の注目度): 10.195581493173643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human Activity Recognition (HAR) is a relevant inference task in many mobile
applications. State-of-the-art HAR at the edge is typically achieved with
lightweight machine learning models such as decision trees and Random Forests
(RFs), whereas deep learning is less common due to its high computational
complexity. In this work, we propose a novel implementation of HAR based on
deep neural networks, and precisely on Binary Neural Networks (BNNs), targeting
low-power general purpose processors with a RISC-V instruction set. BNNs yield
very small memory footprints and low inference complexity, thanks to the
replacement of arithmetic operations with bit-wise ones. However, existing BNN
implementations on general purpose processors impose constraints tailored to
complex computer vision tasks, which result in over-parametrized models for
simpler problems like HAR. Therefore, we also introduce a new BNN inference
library, which targets ultra-compact models explicitly. With experiments on a
single-core RISC-V processor, we show that BNNs trained on two HAR datasets
obtain higher classification accuracy compared to a state-of-the-art baseline
based on RFs. Furthermore, our BNN reaches the same accuracy of a RF with
either less memory (up to 91%) or more energy-efficiency (up to 70%), depending
on the complexity of the features extracted by the RF.
- Abstract(参考訳): HAR(Human Activity Recognition)は、多くのモバイルアプリケーションにおいて関連する推論タスクである。
最先端のhar at the edgeは通常、決定木やランダムフォレスト(rfs)といった軽量な機械学習モデルで実現されるが、計算複雑性が高いためディープラーニングは一般的ではない。
本研究では,深いニューラルネットワークに基づくHARの実装と,RISC-V命令セットを用いた低消費電力汎用プロセッサを対象としたBNN(Binary Neural Networks)を提案する。
BNNはビット演算をビット演算に置き換えたことにより、メモリフットプリントが非常に小さく、推論の複雑さが低い。
しかし、汎用プロセッサ上の既存のBNN実装では、複雑なコンピュータビジョンタスクに適した制約が課され、結果としてHARのような単純な問題に対する過度なパラメータ化モデルが生じる。
そこで我々は,超コンパクトモデルを対象とした新しいbnn推論ライブラリも導入する。
単一コアRISC-Vプロセッサの実験により、2つのHARデータセットでトレーニングされたBNNが、RFに基づく最先端ベースラインよりも高い分類精度が得られることを示す。
さらに,我々のBNNは,RFによって抽出される特徴の複雑さに応じて,記憶力の低下(最大91%)またはエネルギー効率の低下(最大70%)で同じ精度に達する。
関連論文リスト
- Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - A Robust Deep Learning-Based Beamforming Design for RIS-assisted
Multiuser MISO Communications with Practical Constraints [4.727307803726522]
RIS支援マルチユーザマルチインプットシングルアウトプットダウンリンク通信システムについて検討する。
我々は、アクティブビームフォーミングとパッシブビームフォーミングを同時に設計するディープ量子化ニューラルネットワーク(DQNN)を開発した。
提案した2つのDQNNアルゴリズムは、離散位相シフトと不完全なCSIが同時に考慮される場合に拡張する。
論文 参考訳(メタデータ) (2021-11-12T03:53:20Z) - Binary Complex Neural Network Acceleration on FPGA [19.38270650475235]
Binarized Complex Neural Network (BCNN) は、複雑なデータをリアルタイムに分類する大きな可能性を示している。
我々は、エッジデバイス上で5000フレーム/秒の推論スループットを提供できるBCNNの構造的プルーニングベースのアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:53:30Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - NL-CNN: A Resources-Constrained Deep Learning Model based on Nonlinear
Convolution [0.0]
NL-CNNと略される新しい畳み込みニューラルネットワークモデルが提案され、非線型畳み込みは畳み込み+非線形性層のカスケードでエミュレートされる。
いくつかの広く知られているデータセットのパフォーマンス評価が提供され、いくつかの関連する特徴を示している。
論文 参考訳(メタデータ) (2021-01-30T13:38:42Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。