論文の概要: What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction
- arxiv url: http://arxiv.org/abs/2201.09650v1
- Date: Mon, 24 Jan 2022 13:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:26:12.067314
- Title: What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction
- Title(参考訳): ネットワークが推測するものではない:意味的矛盾に基づく逆例の検出
- Authors: Yijun Yang, Ruiyuan Gao, Yu Li, Qiuxia Lai and Qiang Xu
- Abstract要約: 敵対的な例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメインへの応用に深刻な脅威をもたらす。
本稿では,AEの本質に基づいた新しいAE検出フレームワークを提案する。
ContraNetは、特にアダプティブアタックにおいて、既存のソリューションよりも大きなマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 14.313178290347293
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial examples (AEs) pose severe threats to the applications of deep
neural networks (DNNs) to safety-critical domains, e.g., autonomous driving.
While there has been a vast body of AE defense solutions, to the best of our
knowledge, they all suffer from some weaknesses, e.g., defending against only a
subset of AEs or causing a relatively high accuracy loss for legitimate inputs.
Moreover, most existing solutions cannot defend against adaptive attacks,
wherein attackers are knowledgeable about the defense mechanisms and craft AEs
accordingly. In this paper, we propose a novel AE detection framework based on
the very nature of AEs, i.e., their semantic information is inconsistent with
the discriminative features extracted by the target DNN model. To be specific,
the proposed solution, namely ContraNet, models such contradiction by first
taking both the input and the inference result to a generator to obtain a
synthetic output and then comparing it against the original input. For
legitimate inputs that are correctly inferred, the synthetic output tries to
reconstruct the input. On the contrary, for AEs, instead of reconstructing the
input, the synthetic output would be created to conform to the wrong label
whenever possible. Consequently, by measuring the distance between the input
and the synthetic output with metric learning, we can differentiate AEs from
legitimate inputs. We perform comprehensive evaluations under various AE attack
scenarios, and experimental results show that ContraNet outperforms existing
solutions by a large margin, especially under adaptive attacks. Moreover, our
analysis shows that successful AEs that can bypass ContraNet tend to have
much-weakened adversarial semantics. We have also shown that ContraNet can be
easily combined with adversarial training techniques to achieve further
improved AE defense capabilities.
- Abstract(参考訳): 敵対的例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメイン(例えば自律運転)への応用に深刻な脅威をもたらす。
多数のAE防衛ソリューションが存在しているが、私たちの知る限りでは、AEのサブセットのみを防衛したり、正当な入力に対して比較的高い精度の損失を生じさせたりといった、いくつかの弱点に悩まされている。
さらに、既存のほとんどのソリューションは、アダプティブアタックに対して防御することができず、攻撃者は防御機構に精通し、それに従ってAEを作れます。
本稿では,対象のdnnモデルによって抽出された識別的特徴と,その意味的情報に矛盾するaesの性質に基づく新しいae検出フレームワークを提案する。
具体的には、提案する解、すなわちコントラネットは、まず入力と推論結果の両方をジェネレータに受け取り、合成出力を取得し、それから元の入力と比較することで、そのような矛盾をモデル化する。
正しく推論された正規入力に対して、合成出力は入力を再構成しようとする。
反対に、AEsでは、入力を再構築する代わりに、可能な限り間違ったラベルに適合するように合成出力を作成する。
これにより、入力と合成出力の距離をメートル法学習で測定することにより、AEを正規入力と区別することができる。
我々は,様々なae攻撃シナリオにおいて包括的評価を行い,特に適応攻撃においては,コントラネットが既存のソリューションよりも大きなマージンで勝っていることを実験的に示した。
さらに,ContraNetをバイパス可能なAEは,より弱められた逆意味論を持つ傾向がある。
また,コントラネットと対向訓練技術を組み合わせることで,さらに改良されたae防御能力が得られることを示した。
関連論文リスト
- Eliminating Catastrophic Overfitting Via Abnormal Adversarial Examples Regularization [50.43319961935526]
SSAT(Single-step adversarial training)は、効率性と堅牢性の両方を達成する可能性を実証している。
SSATは破滅的なオーバーフィッティング(CO)に苦しむが、これは非常に歪んだ分類器に繋がる現象である。
本研究では,SSAT学習ネットワーク上で発生するいくつかの逆の例が異常な振る舞いを示すことを観察する。
論文 参考訳(メタデータ) (2024-04-11T22:43:44Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - Do autoencoders need a bottleneck for anomaly detection? [78.24964622317634]
アイデンティティ関数を学習すると、異常検出にAEは役に立たない。
本研究では,非ボツルネック型AEの値について検討する。
無限大のAEを非ボトルネック型AEの極端な例として提案する。
論文 参考訳(メタデータ) (2022-02-25T11:57:58Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - SLAP: Improving Physical Adversarial Examples with Short-Lived
Adversarial Perturbations [19.14079118174123]
Short-Lived Adrial Perturbations (SLAP) は、光プロジェクターを用いて、敵が物理的に堅牢な現実世界のAEを実現できる新しい技術である。
SLAPは、敵のパッチよりも敵の攻撃に対するコントロールを大きくする。
自動走行シナリオにおけるSLAPの実現可能性について検討し,物体検出タスクと交通標識認識タスクの両方を対象として検討した。
論文 参考訳(メタデータ) (2020-07-08T14:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。