論文の概要: Enhance DNN Adversarial Robustness and Efficiency via Injecting Noise to
Non-Essential Neurons
- arxiv url: http://arxiv.org/abs/2402.04325v1
- Date: Tue, 6 Feb 2024 19:09:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:20:16.825685
- Title: Enhance DNN Adversarial Robustness and Efficiency via Injecting Noise to
Non-Essential Neurons
- Title(参考訳): 非本質ニューロンへのノイズ注入によるDNN対向性ロバスト性および効率性の向上
- Authors: Zhenyu Liu, Garrett Gagnon, Swagath Venkataramani, Liu Liu
- Abstract要約: 本稿では,対向的堅牢性と実行効率を同時に向上する効果的な手法を提案する。
均一にノイズを注入することでロバスト性を高める以前の研究とは異なり、一様でないノイズ注入アルゴリズムを導入する。
近似手法を用いることで,本態性ニューロンを同定・保護し,非定常ニューロンにノイズを戦略的に導入する。
- 参考スコア(独自算出の注目度): 9.404025805661947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have revolutionized a wide range of industries,
from healthcare and finance to automotive, by offering unparalleled
capabilities in data analysis and decision-making. Despite their transforming
impact, DNNs face two critical challenges: the vulnerability to adversarial
attacks and the increasing computational costs associated with more complex and
larger models. In this paper, we introduce an effective method designed to
simultaneously enhance adversarial robustness and execution efficiency. Unlike
prior studies that enhance robustness via uniformly injecting noise, we
introduce a non-uniform noise injection algorithm, strategically applied at
each DNN layer to disrupt adversarial perturbations introduced in attacks. By
employing approximation techniques, our approach identifies and protects
essential neurons while strategically introducing noise into non-essential
neurons. Our experimental results demonstrate that our method successfully
enhances both robustness and efficiency across several attack scenarios, model
architectures, and datasets.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、医療や金融、自動車など、さまざまな産業に革命をもたらし、データ分析や意思決定において、並列性のない機能を提供する。
変革的な影響にもかかわらず、DNNは敵攻撃に対する脆弱性と、より複雑で大規模なモデルに関連する計算コストの増加という、2つの重要な課題に直面している。
本稿では,対向ロバスト性と実行効率を同時に向上する効果的な手法を提案する。
雑音を均一に注入することでロバスト性を高める従来の研究とは異なり、各dnn層に戦略的に適用される非一様雑音注入アルゴリズムを導入することで、攻撃に現れる逆摂動を妨害する。
近似手法を用いることで,本態性ニューロンを同定・保護し,非定常ニューロンにノイズを戦略的に導入する。
実験の結果,本手法は攻撃シナリオ,モデルアーキテクチャ,データセットの堅牢性と効率性を両立させることができた。
関連論文リスト
- Adversarially Robust Spiking Neural Networks Through Conversion [16.2319630026996]
スパイキングニューラルネットワーク(SNN)は、さまざまな人工知能ニューラルネットワーク(ANN)ベースのAIアプリケーションに対して、エネルギー効率のよい代替手段を提供する。
SNNによるニューロモルフィックコンピューティングの進歩がアプリケーションでの利用を拡大するにつれ、SNNの対角的堅牢性の問題はより顕著になる。
論文 参考訳(メタデータ) (2023-11-15T08:33:46Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - R-SNN: An Analysis and Design Methodology for Robustifying Spiking
Neural Networks against Adversarial Attacks through Noise Filters for Dynamic
Vision Sensors [15.093607722961407]
Spiking Neural Networks(SNN)は、イベントベースダイナミックビジョンセンサー(DVS)を用いたニューロモルフィックチップに実装されたエネルギー効率の高い学習機能を提供することを目的としている。
本稿では,これらのDVSシステムに対する敵対的攻撃に対するSNNのロバスト性について検討し,効率的なノイズフィルタリングによるSNNのロバスト化手法であるR-SNNを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:40:04Z) - Robust Learning of Recurrent Neural Networks in Presence of Exogenous
Noise [22.690064709532873]
入力雑音を受けるRNNモデルに対するトラクタブルロバストネス解析を提案する。
線形化手法を用いてロバストネス測度を効率的に推定することができる。
提案手法はリカレントニューラルネットワークのロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2021-05-03T16:45:05Z) - Towards Robust Neural Networks via Orthogonal Diversity [30.77473391842894]
敵の訓練とその変種に代表される一連の手法は、ディープニューラルネットワークの堅牢性を高める最も効果的な手法の1つとして証明されている。
本稿では, 多様な入力に適応する特徴を学習するために, モデルの拡張を目的とした新しい防御手法を提案する。
このようにして、提案したDIOは、これらの相互直交経路によって学習された特徴を補正できるため、モデルを強化し、DNN自体の堅牢性を高める。
論文 参考訳(メタデータ) (2020-10-23T06:40:56Z) - Evaluation of Adversarial Training on Different Types of Neural Networks
in Deep Learning-based IDSs [3.8073142980733]
我々は、異なる回避攻撃の有効性と、レジリエンス深層学習に基づくIDSの訓練方法に焦点をあてる。
我々は min-max アプローチを用いて、敵の例に対して頑健なIDSを訓練する問題を定式化する。
異なるディープラーニングアルゴリズムと異なるベンチマークデータセットに関する実験により、敵の訓練に基づくmin-maxアプローチによる防御が、よく知られた5つの敵の攻撃方法に対する堅牢性を向上することを示した。
論文 参考訳(メタデータ) (2020-07-08T23:33:30Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。