論文の概要: Towards Black-box Adversarial Example Detection: A Data
Reconstruction-based Method
- arxiv url: http://arxiv.org/abs/2306.02021v1
- Date: Sat, 3 Jun 2023 06:34:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:46:04.394669
- Title: Towards Black-box Adversarial Example Detection: A Data
Reconstruction-based Method
- Title(参考訳): ブラックボックス逆例検出に向けて:データ再構成に基づく方法
- Authors: Yifei Gao, Zhiyu Lin, Yunfan Yang, Jitao Sang
- Abstract要約: ブラックボックス攻撃はより現実的な脅威であり、様々なブラックボックス敵の訓練ベースの防御方法につながっている。
BAD問題に対処するために,データ再構成に基づく逆例検出手法を提案する。
- 参考スコア(独自算出の注目度): 9.857570123016213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial example detection is known to be an effective adversarial defense
method. Black-box attack, which is a more realistic threat and has led to
various black-box adversarial training-based defense methods, however, does not
attract considerable attention in adversarial example detection. In this paper,
we fill this gap by positioning the problem of black-box adversarial example
detection (BAD). Data analysis under the introduced BAD settings demonstrates
(1) the incapability of existing detectors in addressing the black-box scenario
and (2) the potential of exploring BAD solutions from a data perspective. To
tackle the BAD problem, we propose a data reconstruction-based adversarial
example detection method. Specifically, we use variational auto-encoder (VAE)
to capture both pixel and frequency representations of normal examples. Then we
use reconstruction error to detect adversarial examples. Compared with existing
detection methods, the proposed method achieves substantially better detection
performance in BAD, which helps promote the deployment of adversarial example
detection-based defense solutions in real-world models.
- Abstract(参考訳): adversarial example detectionは効果的なadversarial defense法であることが知られている。
ブラックボックス攻撃は、より現実的な脅威であり、様々なブラックボックスの敵の訓練に基づく防御手法に繋がったが、敵のサンプル検出には大きな関心が寄せられていない。
本稿では,ブラックボックス逆例検出(BAD)の問題を位置決めすることで,このギャップを埋める。
導入されたBAD設定に基づくデータ分析は,(1)ブラックボックスシナリオに対処する既存の検出器の動作不能,(2)データの観点からBADソリューションを探索する可能性を示す。
BAD問題に対処するために,データ再構成に基づく逆例検出手法を提案する。
具体的には、変分オートエンコーダ(VAE)を用いて、通常の例の画素と周波数の両方をキャプチャする。
そして,その逆の例を復元誤差で検出する。
提案手法は,既存の検出手法と比較して,悪時の検出性能が大幅に向上し,実世界モデルにおける実例検出に基づく防御ソリューションの展開を促進する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - AED-PADA:Improving Generalizability of Adversarial Example Detection via Principal Adversarial Domain Adaptation [38.55694348512267]
主対数領域適応(AED-PADA)による逆数例検出という新しい手法を提案する。
特に,本手法は主敵ドメイン(PAD)を同定する。
そこで我々は,PADをソースドメインとする逆例検出において,マルチソース領域適応の先駆者となった。
論文 参考訳(メタデータ) (2024-04-19T05:32:37Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - ADDMU: Detection of Far-Boundary Adversarial Examples with Data and
Model Uncertainty Estimation [125.52743832477404]
AED(Adversarial Examples Detection)は、敵攻撃に対する重要な防御技術である。
本手法は, 正逆検出とFB逆検出の2種類の不確実性推定を組み合わせた新しい手法である textbfADDMU を提案する。
提案手法は,各シナリオにおいて,従来の手法よりも3.6と6.0のEmphAUC点が優れていた。
論文 参考訳(メタデータ) (2022-10-22T09:11:12Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Beating Attackers At Their Own Games: Adversarial Example Detection
Using Adversarial Gradient Directions [16.993439721743478]
提案手法は, 対向勾配の方向が対向空間を特徴づける上で重要な役割を担っていることを示す。
CIFAR-10とImageNetの2つの異なるデータベースで実施された実験により、提案手法は5つの異なる攻撃に対して97.9%と98.6%のAUC-ROCを達成した。
論文 参考訳(メタデータ) (2020-12-31T01:12:24Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。