論文の概要: RDI: An adversarial robustness evaluation metric for deep neural networks based on sample clustering features
- arxiv url: http://arxiv.org/abs/2504.18556v1
- Date: Wed, 16 Apr 2025 10:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 01:46:36.917059
- Title: RDI: An adversarial robustness evaluation metric for deep neural networks based on sample clustering features
- Title(参考訳): RDI:サンプルクラスタリング特徴に基づくディープニューラルネットワークの対向ロバストネス評価指標
- Authors: Jialei Song, Xingquan Zuo, Feiyang Wang, Hai Huang, Tianle Zhang,
- Abstract要約: ディープニューラルネットワーク(DNN)は、敵のサンプルに対して非常に感受性が高い。
本稿では,新しい対向ロバスト性評価指標であるロバスト性差指数(RDI)を提案する。
実験により、RDIはアタック成功率(ASR)の金標準対向ロバストネス指標とより強い相関を示すことが示された。
- 参考スコア(独自算出の注目度): 4.441992351171746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are highly susceptible to adversarial samples, raising concerns about their reliability in safety-critical tasks. Currently, methods of evaluating adversarial robustness are primarily categorized into attack-based and certified robustness evaluation approaches. The former not only relies on specific attack algorithms but also is highly time-consuming, while the latter due to its analytical nature, is typically difficult to implement for large and complex models. A few studies evaluate model robustness based on the model's decision boundary, but they suffer from low evaluation accuracy. To address the aforementioned issues, we propose a novel adversarial robustness evaluation metric, Robustness Difference Index (RDI), which is based on sample clustering features. RDI draws inspiration from clustering evaluation by analyzing the intra-class and inter-class distances of feature vectors separated by the decision boundary to quantify model robustness. It is attack-independent and has high computational efficiency. Experiments show that, RDI demonstrates a stronger correlation with the gold-standard adversarial robustness metric of attack success rate (ASR). The average computation time of RDI is only 1/30 of the evaluation method based on the PGD attack. Our open-source code is available at: https://anonymous.4open.science/r/RDI-B1DA.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵のサンプルに対して非常に感受性が高く、安全クリティカルなタスクにおける信頼性に関する懸念を提起する。
現在、敵のロバスト性を評価する方法は、主にアタックベースおよび認証されたロバスト性評価アプローチに分類されている。
前者は特定の攻撃アルゴリズムに依存するだけでなく、非常に時間を要するが、後者は分析的な性質のため、大規模で複雑なモデルでは実装が難しい。
モデル決定境界に基づいてモデルロバスト性を評価する研究はいくつかあるが、それらの評価精度は低い。
上記の問題に対処するため,サンプルクラスタリング機能に基づいた新しい対向ロバスト性評価指標であるロバスト性差分指数(RDI)を提案する。
RDIは、決定境界によって分離された特徴ベクトルのクラス内およびクラス間距離を分析してクラスタリング評価からインスピレーションを得て、モデルのロバスト性を定量化する。
攻撃非依存であり、計算効率が高い。
実験により、RDIは攻撃成功率(ASR)の金標準対向ロバストネス指標とより強い相関を示すことが示された。
RDIの平均計算時間はPGD攻撃に基づく評価手法の1/30である。
私たちのオープンソースコードは、https://anonymous.4open.science/r/RDI-B1DAで利用可能です。
関連論文リスト
- Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [26.645723217188323]
本稿では,表領域における敵攻撃に適した新たな評価基準を提案する。
また,サンプル内のコヒーレンスと特徴整合性を維持しつつ,依存する特徴を摂動する新しい手法を導入する。
この発見は、表領域における様々な敵攻撃の強さ、限界、トレードオフに関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - From Adversarial Arms Race to Model-centric Evaluation: Motivating a
Unified Automatic Robustness Evaluation Framework [91.94389491920309]
テキストの敵対攻撃は、セマンティック保存されているが、入力に誤解を招く摂動を加えることでモデルの弱点を発見することができる。
既存のロバストネス評価の実践は、包括的評価、非現実的評価プロトコル、無効な対人サンプルの問題を示す可能性がある。
我々は、敵攻撃の利点を活用するために、モデル中心の評価にシフトする統合された自動ロバストネス評価フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-29T14:55:20Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - ROBY: Evaluating the Robustness of a Deep Model by its Decision
Boundaries [9.610789928328275]
ROBYは、モデルの決定境界に基づく攻撃非依存のロバストネス尺度である。
攻撃成功率(ASR)の堅牢性ゴールド基準に、強力なファーストオーダージェネリックアタッカーが、たった1%のタイムコストで適合します。
論文 参考訳(メタデータ) (2020-12-18T14:57:51Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。