論文の概要: Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption
- arxiv url: http://arxiv.org/abs/2006.05620v2
- Date: Thu, 10 Dec 2020 06:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:20:36.285086
- Title: Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption
- Title(参考訳): ディープニューラルネットワークの脆弱性を探る:パラメータ破壊の研究
- Authors: Xu Sun, Zhiyuan Zhang, Xuancheng Ren, Ruixuan Luo, Liangyou Li
- Abstract要約: 本稿では,ニューラルネットワークパラメータのロバスト性を評価する指標を提案する。
現実的な目的のために、ランダムな汚職裁判よりもはるかに効果的である勾配に基づく評価を与える。
- 参考スコア(独自算出の注目度): 40.76024057426747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that the vulnerability of model parameters is of crucial value to
the study of model robustness and generalization but little research has been
devoted to understanding this matter. In this work, we propose an indicator to
measure the robustness of neural network parameters by exploiting their
vulnerability via parameter corruption. The proposed indicator describes the
maximum loss variation in the non-trivial worst-case scenario under parameter
corruption. For practical purposes, we give a gradient-based estimation, which
is far more effective than random corruption trials that can hardly induce the
worst accuracy degradation. Equipped with theoretical support and empirical
validation, we are able to systematically investigate the robustness of
different model parameters and reveal vulnerability of deep neural networks
that has been rarely paid attention to before. Moreover, we can enhance the
models accordingly with the proposed adversarial corruption-resistant training,
which not only improves the parameter robustness but also translates into
accuracy elevation.
- Abstract(参考訳): モデルパラメータの脆弱性はモデルロバスト性や一般化の研究に不可欠であるが、この問題を理解するための研究はほとんど行われていない。
本研究では,ニューラルネットワークのパラメーターのロバスト性を測定する指標を提案する。
提案する指標は,パラメータ劣化時の非自明な最悪のシナリオにおける最大損失変動を示す。
実用上,グラデーションに基づく推定は,不正な腐敗試験よりもはるかに効果的であり,最悪の精度低下を引き起こすことがほとんどない。
理論的な支援と経験的検証を備えており、異なるモデルパラメータのロバスト性を調査し、これまでほとんど注目されなかった深層ニューラルネットワークの脆弱性を明らかにすることができる。
さらに, パラメータの頑健性を向上するだけでなく, 精度向上にも寄与する, 逆汚職耐性トレーニングにより, モデルを強化することができる。
関連論文リスト
- Over-parameterization and Adversarial Robustness in Neural Networks: An Overview and Empirical Analysis [25.993502776271022]
大きなパラメータ空間を持つことは、敵の例に対するニューラルネットワークの脆弱性の主な疑念の1つと考えられている。
従来の研究は、検討されたモデルによっては、敵の例を生成するアルゴリズムが適切に機能しないことを示した。
論文 参考訳(メタデータ) (2024-06-14T14:47:06Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Adversarial Parameter Defense by Multi-Step Risk Minimization [22.25435138723355]
パラメータ汚職の概念を導入し,多段階逆汚職アルゴリズムを提案する。
提案アルゴリズムは,ニューラルネットワークのパラメータの堅牢性と精度を両立させることができることを示す。
論文 参考訳(メタデータ) (2021-09-07T06:13:32Z) - Pruning in the Face of Adversaries [0.0]
ニューラルネットワークのプルーニングがL-0,L-2,L-infinity攻撃に対する対向的ロバスト性に及ぼす影響を評価する。
その結果,ニューラルネットワークのプルーニングと対向ロバスト性は相互に排他的ではないことが確認された。
分析を敵のシナリオに付加的な仮定を取り入れた状況にまで拡張し、状況によって異なる戦略が最適であることを示す。
論文 参考訳(メタデータ) (2021-08-19T09:06:16Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - High-Robustness, Low-Transferability Fingerprinting of Neural Networks [78.2527498858308]
本稿では,ディープニューラルネットワークを効果的にフィンガープリントするための特性例を提案する。
モデルプルーニングに対するベースモデルへの高いロバスト性、無関係モデルへの低透過性などが特徴である。
論文 参考訳(メタデータ) (2021-05-14T21:48:23Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。