論文の概要: Binarized ResNet: Enabling Robust Automatic Modulation Classification at
the resource-constrained Edge
- arxiv url: http://arxiv.org/abs/2110.14357v2
- Date: Tue, 18 Apr 2023 03:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 19:17:47.354063
- Title: Binarized ResNet: Enabling Robust Automatic Modulation Classification at
the resource-constrained Edge
- Title(参考訳): Binarized ResNet:リソース制約エッジにおけるロバスト自動変調分類の実現
- Authors: Deepsayan Sadhukhan, Nitin Priyadarshini Shankar, Nancy Nayak, Thulasi
Tholeti, Sheetal Kalyani
- Abstract要約: ディープニューラルネットワーク(DNN)は、自動変調分類(AMC)に広く使われている。
DNNはメモリと計算の要求が高く、デバイスがリソースに制約のあるエッジネットワークでは実用的ではない。
本研究は,低メモリと計算量のためにエッジネットワークに展開可能な,AMC用の回転型バイナリ大型ResNet(RBLResNet)を提案する。
- 参考スコア(独自算出の注目度): 9.103162893345939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep neural networks (DNNs) have been used extensively for
automatic modulation classification (AMC), and the results have been quite
promising. However, DNNs have high memory and computation requirements making
them impractical for edge networks where the devices are resource-constrained.
They are also vulnerable to adversarial attacks, which is a significant
security concern. This work proposes a rotated binary large ResNet (RBLResNet)
for AMC that can be deployed at the edge network because of low memory and
computational complexity. The performance gap between the RBLResNet and
existing architectures with floating-point weights and activations can be
closed by two proposed ensemble methods: (i) multilevel classification (MC),
and (ii) bagging multiple RBLResNets while retaining low memory and
computational power. The MC method achieves an accuracy of $93.39\%$ at $10$dB
over all the $24$ modulation classes of the Deepsig dataset. This performance
is comparable to state-of-the-art (SOTA) performances, with $4.75$ times lower
memory and $1214$ times lower computation. Furthermore, RBLResNet also has high
adversarial robustness compared to existing DNN models. The proposed MC method
with RBLResNets has an adversarial accuracy of $87.25\%$ over a wide range of
SNRs, surpassing the robustness of all existing SOTA methods to the best of our
knowledge. Properties such as low memory, low computation, and the highest
adversarial robustness make it a better choice for robust AMC in low-power edge
devices.
- Abstract(参考訳): 近年、深層ニューラルネットワーク(DNN)は自動変調分類(AMC)に広く使われており、その結果はかなり有望である。
しかし、DNNはメモリと計算の要求が高く、デバイスがリソースに制約のあるエッジネットワークでは実用的ではない。
それらはまた、重大なセキュリティ上の懸念である敵の攻撃に対して脆弱である。
本研究は,低メモリと計算量のためにエッジネットワークに展開可能な,AMC用の回転型バイナリ大型ResNet(RBLResNet)を提案する。
rblresnetと既存のアーキテクチャの浮動小数点重みとアクティベーションのパフォーマンスギャップは、2つの提案手法によって閉じることができる。
(i)マルチレベル分類(MC)及び
(II)低メモリと計算能力を維持しながら複数のRBLResNetをバッキングする。
mc法は、deepsigデータセットの24ドルの変調クラスすべてに対して、$10$dbで$93.39\%の精度を達成する。
この性能は最先端(SOTA)のパフォーマンスに匹敵するものであり、メモリは4.75ドル、計算は1214ドルだった。
さらに、RBLResNetは既存のDNNモデルと比較して高い対角性を持つ。
RBLResNets を用いた MC 法は,既存の SOTA 法の頑健さを最大限に越え,幅広い SNR に対して 87.25 % の逆精度を持つ。
低メモリ、低計算、最高対向ロバスト性などの特性は、低消費電力エッジデバイスにおけるロバストAMCにとってより良い選択である。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Compact Multi-level Sparse Neural Networks with Input Independent
Dynamic Rerouting [33.35713740886292]
疎いディープニューラルネットワークは、モデルの複雑さとメモリ消費を大幅に減らすことができる。
現実の課題に直面する中で,複数のスパースレベルをサポートするスパースモデルをトレーニングすることを提案する。
このようにして、推論中に適切なスパーシティレベルを動的に選択でき、ストレージコストを最小のスパースサブモデルで抑えることができる。
論文 参考訳(メタデータ) (2021-12-21T01:35:51Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - RNNPool: Efficient Non-linear Pooling for RAM Constrained Inference [24.351577383531616]
RNNPoolは、リカレントニューラルネットワーク(RNN)に基づく新しいプール演算子である。
RNNPoolレイヤは、画像分類や顔検出といった標準的な視覚タスクに適用した場合、MobileNetsやDenseNetのようなさまざまなアーキテクチャの複数のブロックを効果的に置き換えることができる。
我々は、RNNPoolを標準のS3FDアーキテクチャで使用し、256KB未満のRAMを持つARM Cortex-M4クラスマイクロコントローラの最先端MAPを実現する。
論文 参考訳(メタデータ) (2020-02-27T05:22:44Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。