論文の概要: Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2012.11413v1
- Date: Mon, 21 Dec 2020 15:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:31:33.888421
- Title: Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks
- Title(参考訳): 対向攻撃に対する複雑な層出力操作による畳み込みニューラルネットワークにおけるプールの爆発脆弱性
- Authors: Chenchen Zhao and Hao Li
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
- 参考スコア(独自算出の注目度): 7.540176446791261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNN) have been more and more applied in mobile
robotics such as intelligent vehicles. Security of CNNs in robotics
applications is an important issue, for which potential adversarial attacks on
CNNs are worth research. Pooling is a typical step of dimension reduction and
information discarding in CNNs. Such information discarding may result in
mis-deletion and mis-preservation of data features which largely influence the
output of the network. This may aggravate the vulnerability of CNNs to
adversarial attacks. In this paper, we conduct adversarial attacks on CNNs from
the perspective of network structure by investigating and exploiting the
vulnerability of pooling. First, a novel adversarial attack methodology named
Strict Layer-Output Manipulation (SLOM) is proposed. Then an attack method
based on Strict Pooling Manipulation (SPM) which is an instantiation of the
SLOM spirit is designed to effectively realize both type I and type II
adversarial attacks on a target CNN. Performances of attacks based on SPM at
different depths are also investigated and compared. Moreover, performances of
attack methods designed by instantiating the SLOM spirit with different
operation layers of CNNs are compared. Experiment results reflect that pooling
tends to be more vulnerable to adversarial attacks than other operations in
CNNs.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、インテリジェントな車両などの移動ロボットにますます応用されている。
ロボティクスアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵攻撃が研究に値する。
ポーリングはCNNにおける次元削減と情報破棄の典型的なステップである。
このような情報廃棄は、ネットワークの出力に大きな影響を及ぼすデータ特徴の誤削除と誤保存をもたらす可能性がある。
これにより、CNNの攻撃に対する脆弱性が増大する可能性がある。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
まず,SLOM(Strict Layer-Output Manipulation)と呼ばれる新たな攻撃手法を提案する。
次に、SLOM精神のインスタンス化であるSPM(Strict Pooling Manipulation)に基づく攻撃手法を設計し、ターゲットCNNに対するI型とII型の両方の敵攻撃を効果的に実現する。
異なる深度でのSPMに基づく攻撃性能についても検討・比較を行った。
さらに、CNNの異なる操作層でSLOMの精神をインスタンス化して設計した攻撃手法の性能を比較した。
実験結果は、プールはCNNの他の操作よりも敵攻撃に弱い傾向があることを反映している。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Demystifying the Transferability of Adversarial Attacks in Computer
Networks [23.80086861061094]
CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
論文 参考訳(メタデータ) (2021-10-09T07:20:44Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Effect of Class Definitions on the Transferability of Adversarial
Attacks Against Forensic CNNs [24.809185168969066]
画像操作を識別するために訓練されたCNNに対する敵対攻撃は、クラス定義に唯一の違いがあるCNNへの転送に失敗することを示す。
これは、敵対的および反法医学的攻撃に対して堅牢な法医学的CNNの設計に重要な意味を持つ。
論文 参考訳(メタデータ) (2021-01-26T20:59:37Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。