論文の概要: Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting
- arxiv url: http://arxiv.org/abs/2101.11466v1
- Date: Wed, 27 Jan 2021 14:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:31:54.642084
- Title: Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting
- Title(参考訳): 入力変換、防御摂動、投票による敵対的事例の検出
- Authors: Federico Nesti, Alessandro Biondi, Giorgio Buttazzo
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
- 参考スコア(独自算出の注目度): 71.57324258813674
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the last few years, convolutional neural networks (CNNs) have proved to
reach super-human performance in visual recognition tasks. However, CNNs can
easily be fooled by adversarial examples, i.e., maliciously-crafted images that
force the networks to predict an incorrect output while being extremely similar
to those for which a correct output is predicted. Regular adversarial examples
are not robust to input image transformations, which can then be used to detect
whether an adversarial example is presented to the network. Nevertheless, it is
still possible to generate adversarial examples that are robust to such
transformations.
This paper extensively explores the detection of adversarial examples via
image transformations and proposes a novel methodology, called \textit{defense
perturbation}, to detect robust adversarial examples with the same input
transformations the adversarial examples are robust to. Such a \textit{defense
perturbation} is shown to be an effective counter-measure to robust adversarial
examples.
Furthermore, multi-network adversarial examples are introduced. This kind of
adversarial examples can be used to simultaneously fool multiple networks,
which is critical in systems that use network redundancy, such as those based
on architectures with majority voting over multiple CNNs. An extensive set of
experiments based on state-of-the-art CNNs trained on the Imagenet dataset is
finally reported.
- Abstract(参考訳): ここ数年、畳み込みニューラルネットワーク(CNN)は視覚認識タスクで超人的なパフォーマンスを達成しています。
しかし、CNNは敵対的な例、すなわちネットワークが正しい出力を予測しているものと非常に類似している間、間違った出力を予測するように強制する悪意のある製造された画像によって容易にだまされる。
通常の逆数例は入力画像変換に対して堅牢ではないため、逆数例がネットワークに提示されているかどうかを検出できる。
それでも、そのような変換に対して堅牢な逆例を生成することは可能である。
本稿では,画像変換による攻撃例の検出を広範囲に検討し,同じ入力変換を持つ強固な攻撃例を検出するための新しい手法である \textit{ defense perturbation} を提案する。
このような \textit{defense perturbation} は、堅牢な敵対例に対する効果的な対策であることが示されている。
さらに、マルチネットワークの逆の例も紹介する。
この種の敵対的な例は、複数のCNNに対して多数票を投じたアーキテクチャに基づくような、ネットワーク冗長性を使用するシステムにおいて重要な、複数のネットワークを同時に騙すために使用することができる。
imagenetデータセットでトレーニングされた最先端cnnに基づく広範な実験が、ついに報告された。
関連論文リスト
- A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Block-Sparse Adversarial Attack to Fool Transformer-Based Text
Classifiers [49.50163349643615]
本稿では,変圧器を用いたテキスト分類器に対して,勾配に基づく逆攻撃を提案する。
実験結果から, 文の意味を抑えながら, GPT-2の精度を5%以下に抑えることができた。
論文 参考訳(メタデータ) (2022-03-11T14:37:41Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Learning Defense Transformers for Counterattacking Adversarial Examples [43.59730044883175]
ディープニューラルネットワーク(DNN)は、小さな摂動を伴う逆例に対して脆弱である。
既存の防御メソッドは、特定のタイプの敵の例に焦点を当てており、現実世界のアプリケーションでは防御に失敗する可能性がある。
敵対例を元のクリーンな分布に戻すことで、敵対例に対して防御できるかどうかという新たな視点から、敵対例を研究します。
論文 参考訳(メタデータ) (2021-03-13T02:03:53Z) - SpectralDefense: Detecting Adversarial Attacks on CNNs in the Fourier
Domain [10.418647759223964]
入力画像と特徴マップのフーリエ領域における解析が,良質なテストサンプルと敵画像の区別にどのように役立つかを示す。
2つの新しい検出方法を提案する。
論文 参考訳(メタデータ) (2021-03-04T12:48:28Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Adversarial Profiles: Detecting Out-Distribution & Adversarial Samples
in Pre-trained CNNs [4.52308938611108]
本稿では, 事前学習したCNNに対して, 敵対的, アウト・ディストリビューション的事例を検出する手法を提案する。
この目的のために,1つの対向攻撃生成技術のみを用いて,各クラスに対する対向プロファイルを作成する。
MNISTデータセットを用いた本手法の初期評価では, 分布外例の少なくとも92例, 対向外例の59%を検出するのに, 対向プロファイルに基づく検出が有効であることが示唆された。
論文 参考訳(メタデータ) (2020-11-18T07:10:13Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。