論文の概要: Binarized ResNet: Enabling Automatic Modulation Classification at the
resource-constrained Edge
- arxiv url: http://arxiv.org/abs/2110.14357v1
- Date: Wed, 27 Oct 2021 11:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 15:14:04.320042
- Title: Binarized ResNet: Enabling Automatic Modulation Classification at the
resource-constrained Edge
- Title(参考訳): Binarized ResNet:リソース制約エッジにおける自動変調分類の実現
- Authors: Nitin Priyadarshini Shankar, Deepsayan Sadhukhan, Nancy Nayak, Sheetal
Kalyani
- Abstract要約: ResNetベースのニューラルアーキテクチャは、最先端(SOTA)アーキテクチャより優れている。
リソース制約のあるエッジネットワーク上で,ネットワークをバイナライズしてデプロイすることを提案する。
- 参考スコア(独自算出の注目度): 11.714765774041187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a ResNet based neural architecture to solve the
problem of Automatic Modulation Classification. We showed that our architecture
outperforms the state-of-the-art (SOTA) architectures. We further propose to
binarize the network to deploy it in the Edge network where the devices are
resource-constrained i.e. have limited memory and computing power. Instead of
simple binarization, rotated binarization is applied to the network which helps
to close the significant performance gap between the real and the binarized
network. Because of the immense representation capability or the real network,
its rotated binarized version achieves $85.33\%$ accuracy compared to $95.76\%$
accuracy of the proposed real network with $2.33$ and $16$ times lesser
computing power than two of the SOTA architectures, MCNet and RMLResNet
respectively, and approximately $16$ times less memory than both. The
performance can be improved further to $87.74\%$ by taking an ensemble of four
such rotated binarized networks.
- Abstract(参考訳): 本稿では,自動変調分類の問題を解決するために,resnetベースのニューラルネットワークを提案する。
私たちのアーキテクチャは、最先端(SOTA)アーキテクチャよりも優れています。
さらに,デバイスがリソースに制約されたエッジネットワーク,すなわちメモリと計算能力の制限のあるネットワークにデプロイするために,ネットワークをバイナリ化する手法を提案する。
単純なバイナライゼーションの代わりに、ローテーションされたバイナライゼーションがネットワークに適用され、リアルとバイナライズされたネットワークの間の大きなパフォーマンスギャップを埋めるのに役立つ。
膨大な表現能力や実ネットワークのため、その回転したバイナリ化バージョンは、sataアーキテクチャの2つ(mcnetとrmlresnet)よりも計算能力が2.33ドルと16ドル低く、メモリが2つよりも約16ドル少ない、提案されている実ネットワークの9.76.%の精度に対して85.33.%の精度を達成している。
この性能は、このような回転二元化ネットワークのアンサンブルを4つとることで、さらに87.74\%$まで向上することができる。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Compact Multi-level Sparse Neural Networks with Input Independent
Dynamic Rerouting [33.35713740886292]
疎いディープニューラルネットワークは、モデルの複雑さとメモリ消費を大幅に減らすことができる。
現実の課題に直面する中で,複数のスパースレベルをサポートするスパースモデルをトレーニングすることを提案する。
このようにして、推論中に適切なスパーシティレベルを動的に選択でき、ストレージコストを最小のスパースサブモデルで抑えることができる。
論文 参考訳(メタデータ) (2021-12-21T01:35:51Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - RNNPool: Efficient Non-linear Pooling for RAM Constrained Inference [24.351577383531616]
RNNPoolは、リカレントニューラルネットワーク(RNN)に基づく新しいプール演算子である。
RNNPoolレイヤは、画像分類や顔検出といった標準的な視覚タスクに適用した場合、MobileNetsやDenseNetのようなさまざまなアーキテクチャの複数のブロックを効果的に置き換えることができる。
我々は、RNNPoolを標準のS3FDアーキテクチャで使用し、256KB未満のRAMを持つARM Cortex-M4クラスマイクロコントローラの最先端MAPを実現する。
論文 参考訳(メタデータ) (2020-02-27T05:22:44Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。