論文の概要: AdvMind: Inferring Adversary Intent of Black-Box Attacks
- arxiv url: http://arxiv.org/abs/2006.09539v1
- Date: Tue, 16 Jun 2020 22:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:29:52.270741
- Title: AdvMind: Inferring Adversary Intent of Black-Box Attacks
- Title(参考訳): AdvMind:ブラックボックス攻撃の相手を推測する
- Authors: Ren Pang, Xinyang Zhang, Shouling Ji, Xiapu Luo, Ting Wang
- Abstract要約: 本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
- 参考スコア(独自算出の注目度): 66.19339307119232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are inherently susceptible to adversarial attacks
even under black-box settings, in which the adversary only has query access to
the target models. In practice, while it may be possible to effectively detect
such attacks (e.g., observing massive similar but non-identical queries), it is
often challenging to exactly infer the adversary intent (e.g., the target class
of the adversarial example the adversary attempts to craft) especially during
early stages of the attacks, which is crucial for performing effective
deterrence and remediation of the threats in many scenarios.
In this paper, we present AdvMind, a new class of estimation models that
infer the adversary intent of black-box adversarial attacks in a robust and
prompt manner. Specifically, to achieve robust detection, AdvMind accounts for
the adversary adaptiveness such that her attempt to conceal the target will
significantly increase the attack cost (e.g., in terms of the number of
queries); to achieve prompt detection, AdvMind proactively synthesizes
plausible query results to solicit subsequent queries from the adversary that
maximally expose her intent. Through extensive empirical evaluation on
benchmark datasets and state-of-the-art black-box attacks, we demonstrate that
on average AdvMind detects the adversary intent with over 75% accuracy after
observing less than 3 query batches and meanwhile increases the cost of
adaptive attacks by over 60%. We further discuss the possible synergy between
AdvMind and other defense methods against black-box adversarial attacks,
pointing to several promising research directions.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は本質的に、ブラックボックス設定下でも、ターゲットモデルへのクエリアクセスしか持たない敵の攻撃に影響を受けやすい。
実際には、そのような攻撃を効果的に検出することは可能であるが(例えば、大規模な類似するが非同一の問い合わせを観察するなど)、敵意を正確に推測することはしばしば困難であり(例えば、敵意の標的クラスである敵意の製作の試み)、特に攻撃の初期段階において、多くのシナリオにおいて効果的な抑止と修復を行う上で不可欠である。
本稿では,ブラックボックス攻撃の敵意を頑健かつ迅速な方法で推定する新たな評価モデルであるAdvMindを提案する。
具体的には、強固な検出を達成するためにadvmindは、ターゲットを隠す試みが攻撃コストを大幅に増加させる(例えば、クエリ数)、即席検出を達成するために、advmindが積極的に実行可能なクエリ結果を合成して、彼女の意図を最大限に露呈する敵からその後のクエリを引き出す。
ベンチマークデータセットの広範な評価と最先端のブラックボックス攻撃により、平均的なAdvMindは3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検知し、同時に適応攻撃のコストを60%以上向上することを示した。
さらに,advmindと他の防御手法との相乗効果についても検討し,有望な研究方向を指摘した。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - SemiAdv: Query-Efficient Black-Box Adversarial Attack with Unlabeled Images [37.26487823778185]
敵の攻撃は、機密性の高いセキュリティシナリオにおけるロボットの安全な配置に深く影響するため、かなりの注目を集めている。
本稿では,ブラックボックス設定における敵攻撃について検討し,SemiAdvと呼ばれるラベルのないデータ駆動逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-07-13T01:28:32Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Saliency Attack: Towards Imperceptible Black-box Adversarial Attack [35.897117965803666]
そこで本稿では, ほとんど認識できない敵の例を生成するために, 摂動を小さな正弦領域に限定することを提案する。
我々はまた、より優れた非受容性を達成するために、サリアント地域の摂動を改善すべく、新しいブラックボックス攻撃であるサリアンシーアタックを提案する。
論文 参考訳(メタデータ) (2022-06-04T03:56:07Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - BASAR:Black-box Attack on Skeletal Action Recognition [32.88446909707521]
スケルトンベースの活動認識装置は、認識者の完全な知識が攻撃者にアクセスできるときに、敵の攻撃に対して脆弱である。
本稿では,そのような脅威がブラックボックスの設定下でも存在することを示す。
BASARを通じて、敵の攻撃は真の脅威であるだけでなく、極めて偽りであることを示す。
論文 参考訳(メタデータ) (2021-03-09T07:29:35Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。