論文の概要: Reliable Evaluation of Adversarial Transferability
- arxiv url: http://arxiv.org/abs/2306.08565v1
- Date: Wed, 14 Jun 2023 15:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 18:28:03.016618
- Title: Reliable Evaluation of Adversarial Transferability
- Title(参考訳): 逆転率の信頼性評価
- Authors: Wenqian Yu and Jindong Gu and Zhijiang Li and Philip Torr
- Abstract要約: 小さな敵対的摂動を持つ敵対的例(AE)は、ディープニューラルネットワーク(DNN)を誤った予測に導出する可能性がある。
我々は,4種類のニューラルネットワークから18種類の人気モデルを検証し,代表的転送可能性向上攻撃法を再評価する。
我々の再評価の結果、逆転性はしばしば過大評価され、すべての人気モデルに変換できる単一のAEは存在しないことが判明した。
- 参考スコア(独自算出の注目度): 17.112253436250946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples (AEs) with small adversarial perturbations can mislead
deep neural networks (DNNs) into wrong predictions. The AEs created on one DNN
can also fool another DNN. Over the last few years, the transferability of AEs
has garnered significant attention as it is a crucial property for facilitating
black-box attacks. Many approaches have been proposed to improve adversarial
transferability. However, they are mainly verified across different
convolutional neural network (CNN) architectures, which is not a reliable
evaluation since all CNNs share some similar architectural biases. In this
work, we re-evaluate 12 representative transferability-enhancing attack methods
where we test on 18 popular models from 4 types of neural networks. Our
reevaluation revealed that the adversarial transferability is often
overestimated, and there is no single AE that can be transferred to all popular
models. The transferability rank of previous attacking methods changes when
under our comprehensive evaluation. Based on our analysis, we propose a
reliable benchmark including three evaluation protocols. Adversarial
transferability on our new benchmark is extremely low, which further confirms
the overestimation of adversarial transferability. We release our benchmark at
https://adv-trans-eval.github.io to facilitate future research, which includes
code, model checkpoints, and evaluation protocols.
- Abstract(参考訳): 小さな敵対的摂動を持つ敵対的例(AE)は、ディープニューラルネットワーク(DNN)を誤った予測に導出する可能性がある。
あるDNNで作られたAEは、別のDNNを騙すこともできる。
ここ数年、AEsの転送性はブラックボックス攻撃を促進する重要な特性であるため、大きな注目を集めてきた。
対向移動性を改善するために多くのアプローチが提案されている。
しかし、これらは主に異なる畳み込みニューラルネットワーク(cnn)アーキテクチャで検証されており、全てのcnnが類似したアーキテクチャバイアスを共有しているため、信頼性の高い評価ではない。
本研究では,4種類のニューラルネットワークから18種類の人気モデルを検証し,代表的転送可能性向上攻撃法を再評価する。
我々の再評価の結果、逆転性はしばしば過大評価され、すべての人気モデルに変換できる単一のAEは存在しないことがわかった。
包括的評価の下では,前回の攻撃方法の移動可能性ランクが変化する。
本稿では,3つの評価プロトコルを含む信頼性ベンチマークを提案する。
新たなベンチマークにおける逆転送可能性は非常に低く、逆転送可能性の過大評価をさらに裏付ける。
私たちは、コード、モデルチェックポイント、評価プロトコルを含む将来の研究を促進するために、https://adv-trans-eval.github.ioでベンチマークをリリースします。
関連論文リスト
- Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - DANAA: Towards transferable attacks with double adversarial neuron
attribution [37.33924432015966]
そこで我々は,DANAAと呼ばれる二重対向ニューロン帰属攻撃法を提案し,より正確な特徴重要度推定を行う。
目標は、個々のニューロンの重みを計測し、転送可能性にとってより重要な特徴を保持することである。
論文 参考訳(メタデータ) (2023-10-16T14:11:32Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Demystifying the Transferability of Adversarial Attacks in Computer
Networks [23.80086861061094]
CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
論文 参考訳(メタデータ) (2021-10-09T07:20:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Going Far Boosts Attack Transferability, but Do Not Do It [16.901240544106948]
7つの最適化アルゴリズム,4つのサロゲート,9つのブラックボックスモデルに関する包括的実験により,攻撃伝達性に対する最適化の影響を検討した。
最適化アルゴリズムからのAEsの様々な転送性は、元のサンプルから得られたRoot Mean Square Error(RMSE)と強く関係している。
LARAは転送可能性を大幅に20%改善するが、DNNの脆弱性を利用するには不十分である。
論文 参考訳(メタデータ) (2021-02-20T13:19:31Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。