論文の概要: Security Analysis of Capsule Network Inference using Horizontal
Collaboration
- arxiv url: http://arxiv.org/abs/2109.11041v1
- Date: Wed, 22 Sep 2021 21:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:51:14.216462
- Title: Security Analysis of Capsule Network Inference using Horizontal
Collaboration
- Title(参考訳): 水平協調によるカプセルネットワーク推論のセキュリティ解析
- Authors: Adewale Adeyemo, Faiq Khalid, Tolulope A. Odetola, and Syed Rafay
Hasan
- Abstract要約: カプセルネットワーク(CapsNet)は、入力画像の空間的向きを符号化し、保存することができる。
CapsNetはいくつかの悪意のある攻撃に対して脆弱である。
- 参考スコア(独自算出の注目度): 0.5459797813771499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The traditional convolution neural networks (CNN) have several drawbacks like
the Picasso effect and the loss of information by the pooling layer. The
Capsule network (CapsNet) was proposed to address these challenges because its
architecture can encode and preserve the spatial orientation of input images.
Similar to traditional CNNs, CapsNet is also vulnerable to several malicious
attacks, as studied by several researchers in the literature. However, most of
these studies focus on single-device-based inference, but horizontally
collaborative inference in state-of-the-art systems, like intelligent edge
services in self-driving cars, voice controllable systems, and drones, nullify
most of these analyses. Horizontal collaboration implies partitioning the
trained CNN models or CNN tasks to multiple end devices or edge nodes.
Therefore, it is imperative to examine the robustness of the CapsNet against
malicious attacks when deployed in horizontally collaborative environments.
Towards this, we examine the robustness of the CapsNet when subjected to
noise-based inference attacks in a horizontal collaborative environment. In
this analysis, we perturbed the feature maps of the different layers of four
DNN models, i.e., CapsNet, Mini-VGG, LeNet, and an in-house designed CNN
(ConvNet) with the same number of parameters as CapsNet, using two types of
noised-based attacks, i.e., Gaussian Noise Attack and FGSM noise attack. The
experimental results show that similar to the traditional CNNs, depending upon
the access of the attacker to the DNN layer, the classification accuracy of the
CapsNet drops significantly. For example, when Gaussian Noise Attack
classification is performed at the DigitCap layer of the CapsNet, the maximum
classification accuracy drop is approximately 97%.
- Abstract(参考訳): 従来の畳み込みニューラルネットワーク(cnn)には、ピカソ効果やプール層による情報損失など、いくつかの欠点がある。
Capsule Network(CapsNet)は、入力画像の空間的向きをエンコードし保存できるアーキテクチャであるため、これらの課題に対処するために提案されている。
従来のCNNと同様に、CapsNetはいくつかの悪意のある攻撃にも脆弱である。
しかしながら、これらの研究のほとんどは単デバイスベースの推論に焦点を当てているが、自動運転車のインテリジェントエッジサービス、音声制御システム、ドローンなど、最先端システムの水平協調推論は、これらの分析の大部分を無効化している。
水平コラボレーションは、トレーニング済みのCNNモデルやCNNタスクを複数のエンドデバイスやエッジノードに分割することを意味する。
したがって、水平協調環境に配置した場合、悪意のある攻撃に対してCapsNetの堅牢性を調べることが不可欠である。
そこで我々は,水平協調環境におけるノイズベース推論攻撃によるCapsNetのロバスト性を検討する。
本稿では,4種類のDNNモデル,すなわちCapsNet,Mini-VGG,LeNet,およびCapsNetと同じ数のパラメータを持つ社内設計のCNN(ConvNet)の特徴マップを,ガウス雑音攻撃とFGSM雑音攻撃という2種類のノイズベース攻撃を用いて解析した。
実験の結果,従来のcnnと同様,dnn層への攻撃者のアクセスによって,capsnetの分類精度は著しく低下することがわかった。
例えば、CapsNetのDigitCap層でガウス雑音攻撃分類を行う場合、最大分類精度は97%である。
関連論文リスト
- Capsule Neural Networks as Noise Stabilizer for Time Series Data [20.29049860598735]
カプセルニューラルネットワークは、単一ベクトルにニューロンを結合し、位置同変の特徴を学習するカプセルを使用する。
本稿では,高感度でノイズの多い時系列センサデータの解析におけるCapsNetsの有効性について検討する。
論文 参考訳(メタデータ) (2024-03-20T12:17:49Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Effective and Efficient Vote Attack on Capsule Networks [37.78858778236326]
Capsule Networks(CapsNets)は、一般的な攻撃プロトコルの下でCNNよりもホワイトボックス攻撃に強いことが示されています。
本研究では,CapsNetsの対向性,特に出力カプセル攻撃時のCapsNetsの内部構造の変化について検討する。
我々は直接CapsNetsの投票を攻撃する新しい投票攻撃を提案します。
論文 参考訳(メタデータ) (2021-02-19T17:35:07Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。