論文の概要: AED-PADA:Improving Generalizability of Adversarial Example Detection via Principal Adversarial Domain Adaptation
- arxiv url: http://arxiv.org/abs/2404.12635v1
- Date: Fri, 19 Apr 2024 05:32:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:05:28.734527
- Title: AED-PADA:Improving Generalizability of Adversarial Example Detection via Principal Adversarial Domain Adaptation
- Title(参考訳): AED-PADA:主対向領域適応による対向例検出の一般化性の向上
- Authors: Heqi Peng, Yunhong Wang, Ruijie Yang, Beichen Li, Rui Wang, Yuanfang Guo,
- Abstract要約: 主対数領域適応(AED-PADA)による逆数例検出という新しい手法を提案する。
特に,本手法は主敵ドメイン(PAD)を同定する。
そこで我々は,PADをソースドメインとする逆例検出において,マルチソース領域適応の先駆者となった。
- 参考スコア(独自算出の注目度): 38.55694348512267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial example detection, which can be conveniently applied in many scenarios, is important in the area of adversarial defense. Unfortunately, existing detection methods suffer from poor generalization performance, because their training process usually relies on the examples generated from a single known adversarial attack and there exists a large discrepancy between the training and unseen testing adversarial examples. To address this issue, we propose a novel method, named Adversarial Example Detection via Principal Adversarial Domain Adaptation (AED-PADA). Specifically, our approach identifies the Principal Adversarial Domains (PADs), i.e., a combination of features of the adversarial examples from different attacks, which possesses large coverage of the entire adversarial feature space. Then, we pioneer to exploit multi-source domain adaptation in adversarial example detection with PADs as source domains. Experiments demonstrate the superior generalization ability of our proposed AED-PADA. Note that this superiority is particularly achieved in challenging scenarios characterized by employing the minimal magnitude constraint for the perturbations.
- Abstract(参考訳): 敵防御の分野では,多くのシナリオに都合よく応用できる敵検出が重要である。
残念なことに、既存の検出方法は、通常、訓練プロセスは1つの既知の敵攻撃から生成された例に依存しており、トレーニングと未知のテストの例との間には大きな相違があるため、一般化性能の低下に悩まされている。
この問題に対処するため,AED-PADA (Pricipal Adversarial Domain Adaptation) を用いたAdversarial Example Detection (Adversarial Example Detection) という新しい手法を提案する。
特に,本手法では,主敵ドメイン(PAD)を識別する。すなわち,敵の特徴空間全体を網羅する,異なる攻撃による敵の例の特徴の組み合わせである。
そこで我々は,PADをソースドメインとする逆例検出において,マルチソース領域適応の先駆者となった。
提案したAED-PADAのより優れた一般化能力を示す実験を行った。
この優越性は、摂動に最小等級の制約を用いるのが特徴の挑戦的なシナリオで特に達成される。
関連論文リスト
- Towards Black-box Adversarial Example Detection: A Data
Reconstruction-based Method [9.857570123016213]
ブラックボックス攻撃はより現実的な脅威であり、様々なブラックボックス敵の訓練ベースの防御方法につながっている。
BAD問題に対処するために,データ再構成に基づく逆例検出手法を提案する。
論文 参考訳(メタデータ) (2023-06-03T06:34:17Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - AdvCheck: Characterizing Adversarial Examples via Local Gradient
Checking [3.425727850372357]
局所勾配の概念を導入し、逆例が良性勾配よりも大きい局所勾配を持つことを示した。
具体的には、いくつかの良性例とノイズ付加型誤分類例から局所勾配を計算して検出器を訓練することにより、逆例や誤分類された自然入力さえも、良性のあるものと正確に区別することができる。
我々は、AdvCheckの最先端(SOTA)ベースラインに対する優れた性能を検証し、一般的な敵攻撃に対する検出率(sim times 1.2$)、誤分類された自然入力に対する検出率(sim times 1.4$)で検証した。
論文 参考訳(メタデータ) (2023-03-25T17:46:09Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - EAD: an ensemble approach to detect adversarial examples from the hidden
features of deep neural networks [1.3212032015497979]
本稿では,敵のサンプルを識別するためのアンサンブル逆検出器 (EAD) を提案する。
EADは、事前訓練されたディープニューラルネットワーク(DNN)の内部表現における入力インスタンスの異なる特性を利用する複数の検出器を組み合わせる。
EAD が AUROC と AUPR で最良であることを示す。
論文 参考訳(メタデータ) (2021-11-24T17:05:26Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning [109.42987031347582]
顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
我々のアプローチは、不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
論文 参考訳(メタデータ) (2020-04-04T15:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。