論文の概要: A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2310.06468v1
- Date: Tue, 10 Oct 2023 09:39:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 18:01:16.989979
- Title: A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks
- Title(参考訳): 深層ニューラルネットワークの逆ロバスト性評価のための幾何学的アプローチ
- Authors: Yang Wang, Bo Dong, Ke Xu, Haiyin Piao, Yufei Ding, Baocai Yin, Xin
Yang
- Abstract要約: 対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
- 参考スコア(独自算出の注目度): 52.09243852066406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are widely used for computer vision tasks.
However, it has been shown that deep models are vulnerable to adversarial
attacks, i.e., their performances drop when imperceptible perturbations are
made to the original inputs, which may further degrade the following visual
tasks or introduce new problems such as data and privacy security. Hence,
metrics for evaluating the robustness of deep models against adversarial
attacks are desired. However, previous metrics are mainly proposed for
evaluating the adversarial robustness of shallow networks on the small-scale
datasets. Although the Cross Lipschitz Extreme Value for nEtwork Robustness
(CLEVER) metric has been proposed for large-scale datasets (e.g., the ImageNet
dataset), it is computationally expensive and its performance relies on a
tractable number of samples. In this paper, we propose the Adversarial
Converging Time Score (ACTS), an attack-dependent metric that quantifies the
adversarial robustness of a DNN on a specific input. Our key observation is
that local neighborhoods on a DNN's output surface would have different shapes
given different inputs. Hence, given different inputs, it requires different
time for converging to an adversarial sample. Based on this geometry meaning,
ACTS measures the converging time as an adversarial robustness metric. We
validate the effectiveness and generalization of the proposed ACTS metric
against different adversarial attacks on the large-scale ImageNet dataset using
state-of-the-art deep networks. Extensive experiments show that our ACTS metric
is an efficient and effective adversarial metric over the previous CLEVER
metric.
- Abstract(参考訳): Deep Neural Networks (DNN) はコンピュータビジョンタスクに広く使われている。
しかし、ディープモデルが敵の攻撃、すなわち、元の入力に不可避な摂動が行われるとパフォーマンスが低下し、さらに次の視覚的タスクが劣化するか、データやプライバシセキュリティなどの新たな問題を引き起こす可能性があることが示されている。
したがって、敵攻撃に対する深層モデルの堅牢性を評価するための指標が望まれる。
しかし, 小規模データセット上での浅層ネットワークの頑健性を評価するために, 従来の指標が主に提案されている。
nEtwork Robustness (CLEVER) のCross Lipschitz Extreme Valueは大規模データセット(例えば ImageNet データセット)に対して提案されているが、計算コストが高く、その性能は抽出可能なサンプル数に依存している。
本稿では,特定の入力に対してDNNの対向ロバスト性を定量化する攻撃依存指標であるACTS(Adversarial Converging Time Score)を提案する。
我々の重要な観察は、DNNの出力面上の局所的な近傍は異なる入力に対して異なる形状を持つであろうことである。
したがって、異なる入力が与えられると、逆のサンプルに収束するのに異なる時間が必要となる。
この幾何学的意味から、ACTSは対向ロバスト性計量として収束時間を測定する。
我々は,最先端の深層ネットワークを用いた大規模画像Netデータセットに対する様々な敵攻撃に対するACTS測定の有効性と一般化を検証した。
大規模な実験により、我々のACTSメトリックは、以前のCLEVERメトリックよりも効率的で効果的な対角距離であることが示されている。
関連論文リスト
- Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。