論文の概要: Fast and Reliable Evaluation of Adversarial Robustness with
Minimum-Margin Attack
- arxiv url: http://arxiv.org/abs/2206.07314v1
- Date: Wed, 15 Jun 2022 06:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 15:14:13.284782
- Title: Fast and Reliable Evaluation of Adversarial Robustness with
Minimum-Margin Attack
- Title(参考訳): 最小マージン攻撃による対向ロバストネスの迅速・信頼性評価
- Authors: Ruize Gao, Jiongxiao Wang, Kaiwen Zhou, Feng Liu, Binghui Xie, Gang
Niu, Bo Han, James Cheng
- Abstract要約: AutoAttack (AA) は、膨大な計算資源が利用可能である場合の敵の堅牢性を評価する最も信頼性の高い手法である。
本稿では,敵の強靭性を迅速かつ確実に評価するための,MM攻撃法を提案する。
- 参考スコア(独自算出の注目度): 33.97471571832656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The AutoAttack (AA) has been the most reliable method to evaluate adversarial
robustness when considerable computational resources are available. However,
the high computational cost (e.g., 100 times more than that of the project
gradient descent attack) makes AA infeasible for practitioners with limited
computational resources, and also hinders applications of AA in the adversarial
training (AT). In this paper, we propose a novel method, minimum-margin (MM)
attack, to fast and reliably evaluate adversarial robustness. Compared with AA,
our method achieves comparable performance but only costs 3% of the
computational time in extensive experiments. The reliability of our method lies
in that we evaluate the quality of adversarial examples using the margin
between two targets that can precisely identify the most adversarial example.
The computational efficiency of our method lies in an effective Sequential
TArget Ranking Selection (STARS) method, ensuring that the cost of the MM
attack is independent of the number of classes. The MM attack opens a new way
for evaluating adversarial robustness and provides a feasible and reliable way
to generate high-quality adversarial examples in AT.
- Abstract(参考訳): AutoAttack (AA) は、膨大な計算資源が利用可能である場合の敵の堅牢性を評価する最も信頼性の高い手法である。
しかし、高い計算コスト(例えば、プロジェクトの勾配降下攻撃の100倍)は、限られた計算資源を持つ実践者にとってAAが実現不可能となり、また、対戦訓練(AT)におけるAAの応用を妨げる。
本稿では,敵の強靭性を迅速かつ確実に評価するための,MM攻撃法を提案する。
aaと比較すると,本手法は性能は同等であるが,計算時間の3%に留まっていた。
提案手法の信頼性は,最も敵対的な事例を正確に識別できる2つの対象間のマージンを用いて,敵の事例の品質を評価することにある。
本手法の計算効率は実効的な逐次TArget Ranking Selection(STARS)法に比例し,MM攻撃のコストがクラス数に依存しないことを保証する。
mm攻撃は、敵のロバスト性を評価する新しい方法を開き、atで高品質な敵の例を生成するための実現可能かつ信頼性の高い方法を提供する。
関連論文リスト
- Towards Million-Scale Adversarial Robustness Evaluation With Stronger Individual Attacks [26.422616504640786]
本稿では,ロジット空間ではなく,確率空間における対角的マージン・アタック(Probability Margin Attack, PMA)を提案する。
我々は、百万スケールのデータセットCC1Mを作成し、それを用いて、敵に訓練されたImageNetモデルの最初の百万スケールの対角ロバスト性評価を行う。
論文 参考訳(メタデータ) (2024-11-20T10:41:23Z) - A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - Outlier Robust Adversarial Training [57.06824365801612]
本研究では,アウトリー・ロバスト・アドバイザリアル・トレーニング(ORAT)を紹介する。
ORATは、強靭なランクに基づく損失関数を持つ対向訓練の2レベル最適化の定式化に基づいている。
ORATの学習目的はバイナリ分類における$mathcalH$-consistencyを満たすことが示され、これは敵の0/1損失に対する適切なサロゲートとして確立されている。
論文 参考訳(メタデータ) (2023-09-10T21:36:38Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - WAT: Improve the Worst-class Robustness in Adversarial Training [11.872656386839436]
敵の訓練は敵の攻撃から守るための一般的な戦略である。
ディープニューラルネットワーク(DNN)は、敵の例に弱いことが示されている。
本稿では,最悪の対人訓練の新たな枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-08T12:54:19Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。