論文の概要: Scalable Attribution of Adversarial Attacks via Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2302.14059v1
- Date: Sat, 25 Feb 2023 12:27:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:18:05.963797
- Title: Scalable Attribution of Adversarial Attacks via Multi-Task Learning
- Title(参考訳): マルチタスク学習による敵攻撃のスケーラブル化
- Authors: Zhongyi Guo and Keji Han and Yao Ge and Wei Ji and Yun Li
- Abstract要約: 敵帰属問題(Adversarial Attribution Problem, AAP)は、敵の例を生成するために用いられる。
MTAA(Multi-Task Adversarial Attribution)というマルチタスク学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.302242821058865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) can be easily fooled by adversarial attacks
during inference phase when attackers add imperceptible perturbations to
original examples, i.e., adversarial examples. Many works focus on adversarial
detection and adversarial training to defend against adversarial attacks.
However, few works explore the tool-chains behind adversarial examples, which
can help defenders to seize the clues about the originator of the attack, their
goals, and provide insight into the most effective defense algorithm against
corresponding attacks. With such a gap, it is necessary to develop techniques
that can recognize tool-chains that are leveraged to generate the adversarial
examples, which is called Adversarial Attribution Problem (AAP). In this paper,
AAP is defined as the recognition of three signatures, i.e., {\em attack
algorithm}, {\em victim model} and {\em hyperparameter}. Current works transfer
AAP into single label classification task and ignore the relationship between
these signatures. The former will meet combination explosion problem as the
number of signatures is increasing. The latter dictates that we cannot treat
AAP simply as a single task problem. We first conduct some experiments to
validate the attributability of adversarial examples. Furthermore, we propose a
multi-task learning framework named Multi-Task Adversarial Attribution (MTAA)
to recognize the three signatures simultaneously. MTAA contains perturbation
extraction module, adversarial-only extraction module and classification and
regression module. It takes the relationship between attack algorithm and
corresponding hyperparameter into account and uses the uncertainty weighted
loss to adjust the weights of three recognition tasks. The experimental results
on MNIST and ImageNet show the feasibility and scalability of the proposed
framework as well as its effectiveness in dealing with false alarms.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、攻撃者が元の例、すなわち敵の例に知覚不能な摂動を加えるとき、推論フェーズ中に敵の攻撃によって簡単に騙される。
多くの研究は、敵の攻撃から守るための敵の検出と敵の訓練に焦点を当てている。
しかし、攻撃の起点、目標、および対応する攻撃に対する最も効果的な防御アルゴリズムについての洞察をディフェンダーが得るのに役立つ、敵対的な例の背後にあるツールチェーンを探求する作品はほとんどない。
このようなギャップを生かして,adversarial attribution problem(aap)と呼ばれる,逆の例を生成するためのツールチェーンを認識可能な手法を開発する必要がある。
本稿では、AAPを3つのシグネチャ(すなわち、攻撃アルゴリズム)、犠牲者モデル(犠牲者モデル)、ハイパーパラメータ(ハイパーパラメータ)の認識として定義する。
現在の作業は、aapを単一のラベル分類タスクに転送し、これらのシグネチャ間の関係を無視する。
前者は、署名の数が増えるにつれて、組合せ爆発問題に遭遇する。
後者は、AAPを単に単一のタスク問題として扱うことはできないと宣言します。
まず,敵対例の帰属性を検証する実験を行った。
さらに,これら3つのシグネチャを同時に認識するためのマルチタスク学習フレームワークであるmulti-task adversarial attribution (mtaa)を提案する。
MTAAには摂動抽出モジュール、対向のみ抽出モジュール、分類および回帰モジュールが含まれる。
攻撃アルゴリズムと対応するハイパーパラメータの関係を考慮に入れ、3つの認識タスクの重みを調整するために不確かさ重み付き損失を利用する。
MNISTとImageNetの実験結果は、提案フレームワークの実現可能性と拡張性、および誤報処理の有効性を示している。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Self-Supervised Adversarial Example Detection by Disentangled
Representation [16.98476232162835]
判別器ネットワークが支援するオートエンコーダを,正しくペア化されたクラス/セマンティクス特徴と誤ったペアのクラス/セマンティクス特徴の両方から訓練し,良性と反例を再構築する。
これは逆例の振る舞いを模倣し、オートエンコーダの不要な一般化能力を減らすことができる。
本手法は,最先端の自己監視検出手法と比較して,様々な測定結果において優れた性能を示す。
論文 参考訳(メタデータ) (2021-05-08T12:48:18Z) - BAARD: Blocking Adversarial Examples by Testing for Applicability,
Reliability and Decidability [12.079529913120593]
敵防衛は、機械学習モデルを敵攻撃から保護するが、しばしばある種類のモデルや攻撃に適合する。
ケミノフォマティクスにおける応用可能性ドメインの概念から着想を得た。
本稿では,グローバルかつローカルにインプットをチェックする,シンプルで堅牢な3段階データ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-02T15:24:33Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。