論文の概要: AdvMind: Inferring Adversary Intent of Black-Box Attacks
- arxiv url: http://arxiv.org/abs/2006.09539v1
- Date: Tue, 16 Jun 2020 22:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:29:52.270741
- Title: AdvMind: Inferring Adversary Intent of Black-Box Attacks
- Title(参考訳): AdvMind:ブラックボックス攻撃の相手を推測する
- Authors: Ren Pang, Xinyang Zhang, Shouling Ji, Xiapu Luo, Ting Wang
- Abstract要約: 本稿では,ブラックボックス攻撃の敵意を頑健に推定する新たな評価モデルであるAdvMindを提案する。
平均的なAdvMindは、3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検出する。
- 参考スコア(独自算出の注目度): 66.19339307119232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are inherently susceptible to adversarial attacks
even under black-box settings, in which the adversary only has query access to
the target models. In practice, while it may be possible to effectively detect
such attacks (e.g., observing massive similar but non-identical queries), it is
often challenging to exactly infer the adversary intent (e.g., the target class
of the adversarial example the adversary attempts to craft) especially during
early stages of the attacks, which is crucial for performing effective
deterrence and remediation of the threats in many scenarios.
In this paper, we present AdvMind, a new class of estimation models that
infer the adversary intent of black-box adversarial attacks in a robust and
prompt manner. Specifically, to achieve robust detection, AdvMind accounts for
the adversary adaptiveness such that her attempt to conceal the target will
significantly increase the attack cost (e.g., in terms of the number of
queries); to achieve prompt detection, AdvMind proactively synthesizes
plausible query results to solicit subsequent queries from the adversary that
maximally expose her intent. Through extensive empirical evaluation on
benchmark datasets and state-of-the-art black-box attacks, we demonstrate that
on average AdvMind detects the adversary intent with over 75% accuracy after
observing less than 3 query batches and meanwhile increases the cost of
adaptive attacks by over 60%. We further discuss the possible synergy between
AdvMind and other defense methods against black-box adversarial attacks,
pointing to several promising research directions.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は本質的に、ブラックボックス設定下でも、ターゲットモデルへのクエリアクセスしか持たない敵の攻撃に影響を受けやすい。
実際には、そのような攻撃を効果的に検出することは可能であるが(例えば、大規模な類似するが非同一の問い合わせを観察するなど)、敵意を正確に推測することはしばしば困難であり(例えば、敵意の標的クラスである敵意の製作の試み)、特に攻撃の初期段階において、多くのシナリオにおいて効果的な抑止と修復を行う上で不可欠である。
本稿では,ブラックボックス攻撃の敵意を頑健かつ迅速な方法で推定する新たな評価モデルであるAdvMindを提案する。
具体的には、強固な検出を達成するためにadvmindは、ターゲットを隠す試みが攻撃コストを大幅に増加させる(例えば、クエリ数)、即席検出を達成するために、advmindが積極的に実行可能なクエリ結果を合成して、彼女の意図を最大限に露呈する敵からその後のクエリを引き出す。
ベンチマークデータセットの広範な評価と最先端のブラックボックス攻撃により、平均的なAdvMindは3回未満のクエリバッチを観察した後、75%以上の精度で敵の意図を検知し、同時に適応攻撃のコストを60%以上向上することを示した。
さらに,advmindと他の防御手法との相乗効果についても検討し,有望な研究方向を指摘した。
関連論文リスト
- Certifiable Black-Box Attack: Ensuring Provably Successful Attack for
Adversarial Examples [11.88824824539345]
ブラックボックスの敵攻撃は、機械学習モデルを逆転させる強い可能性を示している。
我々は、攻撃の成功率を保証できる認証されたブラックボックス攻撃という、敵対的攻撃の新しいパラダイムを研究するための第一歩を踏み出します。
理論的および実験的な結果により、提案した認証攻撃の有効性が検証された。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Identifying Adversarially Attackable and Robust Samples [1.4213973379473654]
アドリアックは、入力サンプルに小さな、知覚不能な摂動を挿入し、ディープラーニングモデルの出力に大きな、望ましくない変化を引き起こす。
本研究は, 対人攻撃に最も影響を受けやすいサンプルを同定することを目的とした, サンプル攻撃可能性の概念を紹介する。
本研究では,未知のターゲットモデルに対する未知のデータセットにおいて,逆攻撃可能で頑健なサンプルを識別するディープラーニングベースの検出器を提案する。
論文 参考訳(メタデータ) (2023-01-30T13:58:14Z) - Understanding the Vulnerability of Skeleton-based Human Activity
Recognition via Black-box Attack [41.04797759476035]
骨格に基づくヒト活動認識(HAR)における最初のブラックボックス対逆攻撃手法を提案する。
BASARは分類境界と自然運動多様体の間の相互作用を探索する。
BASARは、分類器、緩和、攻撃モードにまたがって攻撃を成功させることができることを示す。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers [74.8408990716076]
既存の強化学習エージェントに対する観測空間攻撃は共通の弱点を有することを示す。
提案手法は, 有効かつ統計的に検出不可能な, 逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
従来の攻撃と比較すると、R攻撃は自動で検出するのがかなり難しいことが実証されている。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Saliency Attack: Towards Imperceptible Black-box Adversarial Attack [35.897117965803666]
そこで本稿では, ほとんど認識できない敵の例を生成するために, 摂動を小さな正弦領域に限定することを提案する。
我々はまた、より優れた非受容性を達成するために、サリアント地域の摂動を改善すべく、新しいブラックボックス攻撃であるサリアンシーアタックを提案する。
論文 参考訳(メタデータ) (2022-06-04T03:56:07Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - BASAR:Black-box Attack on Skeletal Action Recognition [32.88446909707521]
スケルトンベースの活動認識装置は、認識者の完全な知識が攻撃者にアクセスできるときに、敵の攻撃に対して脆弱である。
本稿では,そのような脅威がブラックボックスの設定下でも存在することを示す。
BASARを通じて、敵の攻撃は真の脅威であるだけでなく、極めて偽りであることを示す。
論文 参考訳(メタデータ) (2021-03-09T07:29:35Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。