論文の概要: Revisiting Transferable Adversarial Images: Systemization, Evaluation, and New Insights
- arxiv url: http://arxiv.org/abs/2310.11850v2
- Date: Tue, 16 Sep 2025 06:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.519646
- Title: Revisiting Transferable Adversarial Images: Systemization, Evaluation, and New Insights
- Title(参考訳): 伝達可能な逆画像の再検討:システム化, 評価, 新たな視点
- Authors: Zhengyu Zhao, Hanwei Zhang, Renjue Li, Ronan Sicre, Laurent Amsaleg, Michael Backes, Qi Li, Qian Wang, Chao Shen,
- Abstract要約: トランスファー可能な敵画像は、現実のブラックボックス攻撃シナリオにおけるコンピュータビジョンシステムに対する重要なセキュリティ上の懸念を引き起こす。
本稿では,一般的な機械学習パイプラインを中心に,転送攻撃を5つのカテゴリに分類する。
第1回総合評価では,11個の代表的防衛に対する23個の代表的攻撃が報告された。
- 参考スコア(独自算出の注目度): 33.09769747941402
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transferable adversarial images raise critical security concerns for computer vision systems in real-world, black-box attack scenarios. Although many transfer attacks have been proposed, existing research lacks a systematic and comprehensive evaluation. In this paper, we systemize transfer attacks into five categories around the general machine learning pipeline and provide the first comprehensive evaluation, with 23 representative attacks against 11 representative defenses, including the recent, transfer-oriented defense and the real-world Google Cloud Vision. In particular, we identify two main problems of existing evaluations: (1) for attack transferability, lack of intra-category analyses with fair hyperparameter settings, and (2) for attack stealthiness, lack of diverse measures. Our evaluation results validate that these problems have indeed caused misleading conclusions and missing points, and addressing them leads to new, \textit{consensus-challenging} insights, such as (1) an early attack, DI, even outperforms all similar follow-up ones, (2) the state-of-the-art (white-box) defense, DiffPure, is even vulnerable to (black-box) transfer attacks, and (3) even under the same $L_p$ constraint, different attacks yield dramatically different stealthiness results regarding diverse imperceptibility metrics, finer-grained measures, and a user study. We hope that our analyses will serve as guidance on properly evaluating transferable adversarial images and advance the design of attacks and defenses. Code is available at https://github.com/ZhengyuZhao/TransferAttackEval.
- Abstract(参考訳): トランスファー可能な敵画像は、現実のブラックボックス攻撃シナリオにおけるコンピュータビジョンシステムに対する重要なセキュリティ上の懸念を引き起こす。
多くの転送攻撃が提案されているが、既存の研究は体系的で包括的な評価を欠いている。
本稿では,一般的な機械学習パイプラインを中心とした5つのカテゴリにトランスファーアタックを体系化し,最新の転送指向ディフェンスや実世界のGoogle Cloud Visionを含む,11の代表的なディフェンスに対する23の代表的なアタックで,最初の総合評価を行う。
特に,既存の評価では,(1)攻撃の伝達可能性,(2)攻撃の極小設定によるカテゴリ内分析の欠如,(2)攻撃のステルスネス,多様な対策の欠如,の2つの問題を明らかにした。
以上の結果から,(1)早期攻撃,DI,さらには同様のフォローアップ攻撃,(2)最先端(ホワイトボックス)防衛のDiffPure,(3)同一のL_p$制約下においても,異なる攻撃が,多様な非受容性指標,よりきめ細かな測定,ユーザスタディといった新たなステルス性結果をもたらすことが確認された。
我々は,移動可能な敵画像の適切な評価と,攻撃・防御設計の進展に関するガイダンスとして,我々の分析を期待する。
コードはhttps://github.com/ZhengyuZhao/TransferAttackEval.comで公開されている。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Towards Good Practices in Evaluating Transfer Adversarial Attacks [23.40245805066479]
我々は、ImageNet上の9つの防御に対する23の代表的な攻撃を網羅し、転送攻撃の包括的評価を行った。
特に,既存の攻撃を5つのカテゴリに分類することを提案する。
また、さまざまな非受容性指標を採用し、よりきめ細かな特徴を探求することで、ステルスネスに特に注意を払っています。
論文 参考訳(メタデータ) (2022-11-17T14:40:31Z) - Transferability Ranking of Adversarial Examples [20.41013432717447]
本稿では,転送攻撃処理を洗練させるランキング戦略を提案する。
多様な代理モデルの集合を利用することで, 逆例の転送可能性を予測することができる。
提案手法を用いて, 対向例の移動率を, ランダムな選択から, ほぼ上界レベルまで20%に引き上げることができた。
論文 参考訳(メタデータ) (2022-08-23T11:25:16Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。