論文の概要: Effective and Efficient Vote Attack on Capsule Networks
- arxiv url: http://arxiv.org/abs/2102.10055v1
- Date: Fri, 19 Feb 2021 17:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:26:25.510943
- Title: Effective and Efficient Vote Attack on Capsule Networks
- Title(参考訳): カプセルネットワークにおける効果的かつ効率的な投票攻撃
- Authors: Jindong Gu, Baoyuan Wu, Volker Tresp
- Abstract要約: Capsule Networks(CapsNets)は、一般的な攻撃プロトコルの下でCNNよりもホワイトボックス攻撃に強いことが示されています。
本研究では,CapsNetsの対向性,特に出力カプセル攻撃時のCapsNetsの内部構造の変化について検討する。
我々は直接CapsNetsの投票を攻撃する新しい投票攻撃を提案します。
- 参考スコア(独自算出の注目度): 37.78858778236326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard Convolutional Neural Networks (CNNs) can be easily fooled by images
with small quasi-imperceptible artificial perturbations. As alternatives to
CNNs, the recently proposed Capsule Networks (CapsNets) are shown to be more
robust to white-box attacks than CNNs under popular attack protocols. Besides,
the class-conditional reconstruction part of CapsNets is also used to detect
adversarial examples. In this work, we investigate the adversarial robustness
of CapsNets, especially how the inner workings of CapsNets change when the
output capsules are attacked. The first observation is that adversarial
examples misled CapsNets by manipulating the votes from primary capsules.
Another observation is the high computational cost, when we directly apply
multi-step attack methods designed for CNNs to attack CapsNets, due to the
computationally expensive routing mechanism. Motivated by these two
observations, we propose a novel vote attack where we attack votes of CapsNets
directly. Our vote attack is not only effective but also efficient by
circumventing the routing process. Furthermore, we integrate our vote attack
into the detection-aware attack paradigm, which can successfully bypass the
class-conditional reconstruction based detection method. Extensive experiments
demonstrate the superior attack performance of our vote attack on CapsNets.
- Abstract(参考訳): 標準畳み込みニューラルネットワーク(CNN)は、擬似知覚可能な小さな人工的な摂動を持つ画像によって容易にだまされる。
cnnの代替として、最近提案されたcapsnets(capsnets)は、人気のある攻撃プロトコルのcnnよりもホワイトボックス攻撃に強いことが示されている。
また、CapsNets のクラス条件再構成部は、逆例の検出にも使用されます。
本研究では,CapsNetsの対向性,特に出力カプセル攻撃時のCapsNetsの内部構造の変化について検討する。
最初の観察は、反対の例がプライマリカプセルからの投票を操作することでCapsNetsを誤解させたことである。
CNNがCapsNetを攻撃するために設計されたマルチステップ攻撃方法を直接適用する場合、計算的に高価なルーティングメカニズムのために高い計算コストが観察されます。
この2つの見解に動機づけられ、capsnetの投票を直接攻撃する新しい投票攻撃を提案する。
我々の投票攻撃は効果的であるだけでなく、ルーティングプロセスの回避にも有効である。
さらに, 投票攻撃を検出・認識型攻撃パラダイムに統合し, クラス条件再構築に基づく検出手法をうまくバイパスすることに成功した。
広範な実験は、capsnetsに対する我々の投票攻撃の優れた攻撃性能を示す。
関連論文リスト
- Cost Aware Untargeted Poisoning Attack against Graph Neural Networks, [5.660584039688214]
本稿では,攻撃予算の配分を改善するため,コスト・アウェア・ポジショニング・アタック(CA-アタック)と呼ばれる新たなアタック・ロス・フレームワークを提案する。
実験の結果,提案したCA攻撃は既存の攻撃戦略を大幅に強化することが示された。
論文 参考訳(メタデータ) (2023-12-12T10:54:02Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Security Analysis of Capsule Network Inference using Horizontal
Collaboration [0.5459797813771499]
カプセルネットワーク(CapsNet)は、入力画像の空間的向きを符号化し、保存することができる。
CapsNetはいくつかの悪意のある攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2021-09-22T21:04:20Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Interpretable Graph Capsule Networks for Object Recognition [17.62514568986647]
我々は,グラフカプセルネットワーク(GraCapsNets)を解釈可能とし,ルーティング部分をマルチヘッドアテンションベースのグラフポーリングアプローチで置き換える。
GraCapsNetsは、CapsNetsと比較して、より少ないパラメータとより良い逆の堅牢性で、より良い分類性能を達成する。
論文 参考訳(メタデータ) (2020-12-03T03:18:00Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。