論文の概要: How Secure is Distributed Convolutional Neural Network on IoT Edge
Devices?
- arxiv url: http://arxiv.org/abs/2006.09276v1
- Date: Tue, 16 Jun 2020 16:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:33:20.432007
- Title: How Secure is Distributed Convolutional Neural Network on IoT Edge
Devices?
- Title(参考訳): iot edgeデバイス上で分散畳み込みニューラルネットワークはどの程度セキュアか?
- Authors: Hawzhin Mohammed, Tolulope A. Odetola, Syed Rafay Hasan
- Abstract要約: 異なるノードにわたる分散エッジネットワークに展開するCNNに対するTrojan攻撃を提案する。
これらの攻撃はディープラーニングモデル(LeNet、AlexNet)でテストされる
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNN) has found successful adoption in many
applications. The deployment of CNN on resource-constrained edge devices have
proved challenging. CNN distributed deployment across different edge devices
has been adopted. In this paper, we propose Trojan attacks on CNN deployed
across a distributed edge network across different nodes. We propose five
stealthy attack scenarios for distributed CNN inference. These attacks are
divided into trigger and payload circuitry. These attacks are tested on deep
learning models (LeNet, AlexNet). The results show how the degree of
vulnerability of individual layers and how critical they are to the final
classification.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は多くのアプリケーションで成功している。
CNNのリソース制約のあるエッジデバイスへの展開は困難であることが証明された。
異なるエッジデバイスにまたがる分散デプロイメントが採用されている。
本稿では,異なるノード間の分散エッジネットワークに展開するCNNに対するトロイの木馬攻撃を提案する。
分散CNN推論のための5つのステルス攻撃シナリオを提案する。
これらの攻撃はトリガーとペイロード回路に分けられる。
これらの攻撃はディープラーニングモデル(LeNet、AlexNet)でテストされる。
結果は、個々の層の脆弱性の程度と、最終分類にどれほど重要かを示している。
関連論文リスト
- OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - DietCNN: Multiplication-free Inference for Quantized CNNs [9.295702629926025]
本稿では,CNNにおける乗算をテーブルルックアップで置き換える手法を提案する。
単一のアクティベーションコードブックに基づく乗算自由なCNNは、推論あたりのエネルギーの4.7倍、5.6倍、3.5倍の削減を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-09T08:54:54Z) - AutoDiCE: Fully Automated Distributed CNN Inference at the Edge [0.9883261192383613]
本稿では,CNNモデルのサブモデルへの自動分割のための新しいフレームワークであるAutoDiCEを提案する。
実験の結果、AutoDiCEは、エッジデバイス当たりのエネルギー消費とメモリ使用量を減らすことで、分散CNN推論を実現することができることがわかった。
論文 参考訳(メタデータ) (2022-07-20T15:08:52Z) - Quarantine: Sparsity Can Uncover the Trojan Attack Trigger for Free [126.15842954405929]
トロイの木馬攻撃はディープニューラルネットワーク(DNN)を脅かし、ほとんどのサンプルで正常に動作させるが、トリガーを付けた入力に対して操作された結果を生成する。
そこで我々は,まず,クリーンな入力において,ほぼ完全なトロイの木馬の情報のみを保存し,かつ,すでに孤立しているサブネットワークに埋め込まれたトリガを復元する,新しいトロイの木馬ネットワーク検出方式を提案する。
論文 参考訳(メタデータ) (2022-05-24T06:33:31Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - SoWaF: Shuffling of Weights and Feature Maps: A Novel Hardware Intrinsic
Attack (HIA) on Convolutional Neural Network (CNN) [0.0]
資源制約組込みシステムへの畳み込みニューラルネットワーク(CNN)の推論フェーズ展開のセキュリティは、研究領域が拡大しています。
サードパーティのFPGAデザイナは、初期と最終の分類層の知識がなくても提供できます。
このような「安全な」設計のハードウェア本質的な攻撃(HIA)はまだ可能であることを実証します。
論文 参考訳(メタデータ) (2021-03-16T21:12:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks [16.431689066281265]
Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:35:29Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。