論文の概要: PRAT: PRofiling Adversarial aTtacks
- arxiv url: http://arxiv.org/abs/2309.11111v1
- Date: Wed, 20 Sep 2023 07:42:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 17:03:51.229282
- Title: PRAT: PRofiling Adversarial aTtacks
- Title(参考訳): PRAT:Profiling Adversarial atacks
- Authors: Rahul Ambati, Naveed Akhtar, Ajmal Mian, Yogesh Singh Rawat
- Abstract要約: PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
- 参考スコア(独自算出の注目度): 52.693011665938734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intrinsic susceptibility of deep learning to adversarial examples has led to
a plethora of attack techniques with a broad common objective of fooling deep
models. However, we find slight compositional differences between the
algorithms achieving this objective. These differences leave traces that
provide important clues for attacker profiling in real-life scenarios. Inspired
by this, we introduce a novel problem of PRofiling Adversarial aTtacks (PRAT).
Given an adversarial example, the objective of PRAT is to identify the attack
used to generate it. Under this perspective, we can systematically group
existing attacks into different families, leading to the sub-problem of attack
family identification, which we also study. To enable PRAT analysis, we
introduce a large Adversarial Identification Dataset (AID), comprising over
180k adversarial samples generated with 13 popular attacks for image
specific/agnostic white/black box setups. We use AID to devise a novel
framework for the PRAT objective. Our framework utilizes a Transformer based
Global-LOcal Feature (GLOF) module to extract an approximate signature of the
adversarial attack, which in turn is used for the identification of the attack.
Using AID and our framework, we provide multiple interesting benchmark results
for the PRAT problem.
- Abstract(参考訳): 深層学習の敵対的な例への内在的な感受性は、深層モデルを騙すことを広く目的とする攻撃手法の多さにつながった。
しかし,この目的を達成するアルゴリズム間の構成的差異はわずかである。
これらの違いは、実際のシナリオにおける攻撃者プロファイリングの重要な手がかりとなる痕跡を残している。
そこで我々は,Profiling Adversarial aTtacks (PRAT) の新たな問題を紹介した。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
この観点では、既存の攻撃を異なる家族に体系的にグループ化できるため、攻撃家族識別のサブプロブレムがもたらされる。
PRAT解析を実現するために,画像固有/不可知の白黒ボックス設定に対する13の攻撃で生成した180k以上の対数サンプルからなる大規模対数識別データセット(AID)を導入する。
AIDを用いてPRAT目的のための新しいフレームワークを考案する。
本フレームワークでは,Transformer ベースの Global-Local Feature (GLOF) モジュールを用いて,攻撃の識別に使用される敵攻撃の近似署名を抽出する。
AIDと我々のフレームワークを用いて、PRAT問題に対して興味深いベンチマーク結果を提供する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Unraveling Adversarial Examples against Speaker Identification --
Techniques for Attack Detection and Victim Model Classification [24.501269108193412]
敵対的な例は話者識別システムを脅かすことが証明されている。
本稿では,敵対的事例の存在を検出する手法を提案する。
また、敵攻撃を行う被害者モデルを特定する方法についても紹介する。
論文 参考訳(メタデータ) (2024-02-29T17:06:52Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Scalable Attribution of Adversarial Attacks via Multi-Task Learning [11.302242821058865]
敵帰属問題(Adversarial Attribution Problem, AAP)は、敵の例を生成するために用いられる。
MTAA(Multi-Task Adversarial Attribution)というマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-25T12:27:44Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。