論文の概要: Random Projections for Adversarial Attack Detection
- arxiv url: http://arxiv.org/abs/2012.06405v1
- Date: Fri, 11 Dec 2020 15:02:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:14:09.456144
- Title: Random Projections for Adversarial Attack Detection
- Title(参考訳): 逆攻撃検出のためのランダム投影
- Authors: Nathan Drenkow, Neil Fendley, Philippe Burlina
- Abstract要約: 敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
- 参考スコア(独自算出の注目度): 8.684378639046644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whilst adversarial attack detection has received considerable attention, it
remains a fundamentally challenging problem from two perspectives. First, while
threat models can be well-defined, attacker strategies may still vary widely
within those constraints. Therefore, detection should be considered as an
open-set problem, standing in contrast to most current detection strategies.
These methods take a closed-set view and train binary detectors, thus biasing
detection toward attacks seen during detector training. Second, information is
limited at test time and confounded by nuisance factors including the label and
underlying content of the image. Many of the current high-performing techniques
use training sets for dealing with some of these issues, but can be limited by
the overall size and diversity of those sets during the detection step. We
address these challenges via a novel strategy based on random subspace
analysis. We present a technique that makes use of special properties of random
projections, whereby we can characterize the behavior of clean and adversarial
examples across a diverse set of subspaces. We then leverage the
self-consistency (or inconsistency) of model activations to discern clean from
adversarial examples. Performance evaluation demonstrates that our technique
outperforms ($>0.92$ AUC) competing state of the art (SOTA) attack strategies,
while remaining truly agnostic to the attack method itself. It also requires
significantly less training data, composed only of clean examples, when
compared to competing SOTA methods, which achieve only chance performance, when
evaluated in a more rigorous testing scenario.
- Abstract(参考訳): 敵の攻撃検出は注目されているものの、2つの観点からの根本的な課題である。
第一に、脅威モデルは明確に定義できるが、攻撃戦略はこれらの制約内でも広く異なる可能性がある。
したがって、現在のほとんどの検出戦略とは対照的に、検出はオープンセットの問題と見なすべきである。
これらの方法は、閉じたセットの視点でバイナリ検出器を訓練し、検出器トレーニング中に見られる攻撃に対して検出を偏らせる。
第2に、情報はテスト時に制限され、画像のラベルや基礎となるコンテンツを含む迷惑要因によって共起される。
現在のハイパフォーマンス技術の多くは、これらの問題に対処するためのトレーニングセットを使用しているが、検出ステップの全体サイズと多様性によって制限される可能性がある。
ランダムな部分空間解析に基づく新しい戦略により,これらの課題に対処する。
ランダム射影の特殊特性を利用する手法を提案し, 多様な部分空間の集合にまたがるクリーン例と逆例の挙動を特徴付ける。
次に,モデルアクティベーションの自己一貫性(あるいは非一貫性)を活用して,敵の例からクリーンを識別する。
性能評価の結果,本手法は攻撃方法自体に非依存でありながら,SOTA攻撃戦略(SOTA)の競合状態($0.92$AUC)よりも優れていた。
さらに、より厳密なテストシナリオで評価された場合、チャンスパフォーマンスのみを達成する競合するsomaメソッドと比較して、クリーンな例のみで構成されるトレーニングデータも大幅に少なくする。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors [24.296350262025552]
いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
論文 参考訳(メタデータ) (2022-06-30T17:05:45Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。