論文の概要: MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors
- arxiv url: http://arxiv.org/abs/2206.15415v1
- Date: Thu, 30 Jun 2022 17:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:42:40.636816
- Title: MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors
- Title(参考訳): mead: 逆例検出器の評価のためのマルチアームアプローチ
- Authors: Federica Granese, Marine Picot, Marco Romanelli, Francisco Messina,
Pablo Piantanida
- Abstract要約: いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
- 参考スコア(独自算出の注目度): 24.296350262025552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of adversarial examples has been a hot topic in the last years due
to its importance for safely deploying machine learning algorithms in critical
applications. However, the detection methods are generally validated by
assuming a single implicitly known attack strategy, which does not necessarily
account for real-life threats. Indeed, this can lead to an overoptimistic
assessment of the detectors' performance and may induce some bias in the
comparison between competing detection schemes. We propose a novel multi-armed
framework, called MEAD, for evaluating detectors based on several attack
strategies to overcome this limitation. Among them, we make use of three new
objectives to generate attacks. The proposed performance metric is based on the
worst-case scenario: detection is successful if and only if all different
attacks are correctly recognized. Empirically, we show the effectiveness of our
approach. Moreover, the poor performance obtained for state-of-the-art
detectors opens a new exciting line of research.
- Abstract(参考訳): 機械学習アルゴリズムを重要なアプリケーションに安全にデプロイすることの重要性から、ここ数年、敵の例の検出がホットな話題となっている。
しかし、検出方法は一般的に、暗黙的に知られている単一の攻撃戦略を仮定することで検証される。
実際、これは検出器の性能を過最適に評価し、競合する検出方式の比較においてバイアスを生じさせる可能性がある。
本稿では,この制限を克服するためのいくつかの攻撃戦略に基づいて検知器の評価を行う,MEADと呼ばれる新しいマルチアームフレームワークを提案する。
それらのうち、我々は3つの新しい目標を利用して攻撃を発生させる。
提案したパフォーマンス指標は最悪のシナリオに基づいており、すべての異なる攻撃が正しく認識された場合にのみ検出が成功する。
経験的に、我々のアプローチの有効性を示す。
さらに、最先端の検出器の性能の低下は、新たなエキサイティングな研究ラインを開く。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - A Minimax Approach Against Multi-Armed Adversarial Attacks Detection [31.971443221041174]
多武装の敵攻撃は、最先端の検出器を騙すことに成功している。
本稿では,複数の事前学習型検出器のソフト・確率出力をミニマックス・アプローチで集約する手法を提案する。
我々は,アグリゲーションが,多腕対人攻撃に対する個々の最先端検出器より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-04T18:21:22Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - Random Projections for Adversarial Attack Detection [8.684378639046644]
敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
論文 参考訳(メタデータ) (2020-12-11T15:02:28Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Unknown Presentation Attack Detection against Rational Attackers [6.351869353952288]
プレゼンテーション攻撃検出とマルチメディア法医学は、まだ実生活環境での攻撃に対して脆弱である。
既存のソリューションの課題には、未知の攻撃の検出、敵の設定での実行能力、数発の学習、説明可能性などがある。
新たな最適化基準が提案され,実環境におけるこれらのシステムの性能向上のための要件が定義されている。
論文 参考訳(メタデータ) (2020-10-04T14:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。