論文の概要: Towards Good Practices in Evaluating Transfer Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2211.09565v1
- Date: Thu, 17 Nov 2022 14:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:53:20.917940
- Title: Towards Good Practices in Evaluating Transfer Adversarial Attacks
- Title(参考訳): 転校者攻撃評価の実践に向けて
- Authors: Zhengyu Zhao, Hanwei Zhang, Renjue Li, Ronan Sicre, Laurent Amsaleg,
Michael Backes
- Abstract要約: トランスファー攻撃は、現実のブラックボックスシナリオにおいて重要なセキュリティ上の懸念を引き起こす。
既存の評価は主に転送性に重点を置いているが、別の重要な攻撃特性であるステルスネスを見落としている。
攻撃分類を新たに導入し,各カテゴリで同様の攻撃を系統的に解析する。
- 参考スコア(独自算出の注目度): 20.501436689821674
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transfer adversarial attacks raise critical security concerns in real-world,
black-box scenarios. However, the actual progress of attack methods is
difficult to assess due to two main limitations in existing evaluations. First,
existing evaluations are unsystematic and sometimes unfair since new methods
are often directly added to old ones without complete comparisons to similar
methods. Second, existing evaluations mainly focus on transferability but
overlook another key attack property: stealthiness. In this work, we design
good practices to address these limitations. We first introduce a new attack
categorization, which enables our systematic analyses of similar attacks in
each specific category. Our analyses lead to new findings that complement or
even challenge existing knowledge. Furthermore, we comprehensively evaluate 23
representative attacks against 9 defenses on ImageNet. We pay particular
attention to stealthiness, by adopting diverse imperceptibility metrics and
looking into new, finer-grained characteristics. Our evaluation reveals new
important insights: 1) Transferability is highly contextual, and some white-box
defenses may give a false sense of security since they are actually vulnerable
to (black-box) transfer attacks; 2) All transfer attacks are less stealthy, and
their stealthiness can vary dramatically under the same $L_{\infty}$ bound.
- Abstract(参考訳): トランスファー攻撃は、現実のブラックボックスシナリオにおいて重要なセキュリティ上の懸念を引き起こす。
しかし,既存の評価では2つの大きな限界があるため,実際の攻撃方法の進歩は評価が難しい。
第一に、既存の評価は、しばしば同様の方法と完全に比較せずに、古い評価方法に直接追加されるため、体系的ではなく、時には不公平である。
第二に、既存の評価は主に転送可能性に焦点を当てているが、別の重要な攻撃特性であるステルスネスを見落としている。
この作業では、これらの制限に対処するための優れたプラクティスを設計します。
まず,攻撃分類を新たに導入し,各カテゴリで同様の攻撃を系統的に分析する。
私たちの分析は、既存の知識を補完する、あるいは挑戦する新たな発見につながります。
さらに,ImageNet上の9つの防御に対する23の代表的な攻撃を総合的に評価した。
我々は、さまざまな非受容性指標を採用し、新しいよりきめ細かい特徴を探求することで、ステルスネスに特に注意を払う。
私たちの評価は 新たな重要な洞察を示します
1) 転送性は高度に文脈的であり、一部のホワイトボックス防御は、実際には(ブラックボックス)転送攻撃に弱いため、誤ったセキュリティ感覚を与える可能性がある。
2) 全ての転送攻撃はステルス性が低く、そのステルス性は同じ$L_{\infty}$boundの下で劇的に変化する。
関連論文リスト
- AttackEval: How to Evaluate the Effectiveness of Jailbreak Attacking on Large Language Models [29.92550386563915]
本稿では,大規模言語モデルに対するジェイルブレイク攻撃の有効性を評価するための,革新的なフレームワークを提案する。
粗粒度評価と細粒度評価の2つの異なる評価フレームワークを提案する。
我々は、ジェイルブレイクのプロンプトに特化して、総合的な真実データセットを開発する。
論文 参考訳(メタデータ) (2024-01-17T06:42:44Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Revisiting Transferable Adversarial Image Examples: Attack
Categorization, Evaluation Guidelines, and New Insights [30.14129637790446]
トランスファー可能な敵の例は、現実のブラックボックス攻撃シナリオにおいて重要なセキュリティ上の懸念を引き起こす。
本研究は,共通評価実践における2つの主要な問題点を明らかにするものである。
我々は、ImageNet上で転送可能な敵例を大規模に評価する。
論文 参考訳(メタデータ) (2023-10-18T10:06:42Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Deep-Attack over the Deep Reinforcement Learning [26.272161868927004]
敵攻撃の開発により 強化学習が より脆弱になった
本研究は,実効性と盗聴を自然に考慮し,強化学習に基づく攻撃フレームワークを提案する。
また,これらの2つの側面において,攻撃モデルの性能を評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2022-05-02T10:58:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Random Projections for Adversarial Attack Detection [8.684378639046644]
敵の攻撃検出は 2つの観点から 根本的な問題です
本稿では,無作為射影の特殊特性を利用して,清潔で敵対的な例の挙動を特徴付ける手法を提案する。
性能評価は私達の技術が($>0.92$ AUC)技術(SOTA)攻撃戦略の競争状態を上回っていることを示します。
論文 参考訳(メタデータ) (2020-12-11T15:02:28Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - On Adaptive Attacks to Adversarial Example Defenses [123.32678153377915]
本稿では、敵の事例に対して、防御に対する適応攻撃を行うために必要な方法論とアプローチを概説する。
これらの分析が、敵の事例に対して適切な防御攻撃を行うためのガイダンスとして役立てられることを期待している。
論文 参考訳(メタデータ) (2020-02-19T18:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。