論文の概要: Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks
- arxiv url: http://arxiv.org/abs/2105.03251v1
- Date: Wed, 5 May 2021 08:11:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:07:53.108237
- Title: Exploiting Vulnerabilities in Deep Neural Networks: Adversarial and
Fault-Injection Attacks
- Title(参考訳): ディープニューラルネットワークの脆弱性を悪用する - 逆行攻撃とフォールトインジェクション攻撃
- Authors: Faiq Khalid, Muhammad Abdullah Hanif, Muhammad Shafique
- Abstract要約: まず、ニューラルネットワークベースのシステムのセキュリティ攻撃を生成するために悪用できるさまざまな脆弱性について議論します。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
- 参考スコア(独自算出の注目度): 14.958919450708157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From tiny pacemaker chips to aircraft collision avoidance systems, the
state-of-the-art Cyber-Physical Systems (CPS) have increasingly started to rely
on Deep Neural Networks (DNNs). However, as concluded in various studies, DNNs
are highly susceptible to security threats, including adversarial attacks. In
this paper, we first discuss different vulnerabilities that can be exploited
for generating security attacks for neural network-based systems. We then
provide an overview of existing adversarial and fault-injection-based attacks
on DNNs. We also present a brief analysis to highlight different challenges in
the practical implementation of adversarial attacks. Finally, we also discuss
various prospective ways to develop robust DNN-based systems that are resilient
to adversarial and fault-injection attacks.
- Abstract(参考訳): 小さなペースメーカーチップから航空機の衝突回避システムまで、最先端のサイバー物理システム(CPS)はディープニューラルネットワーク(DNN)に依存し始めている。
しかし、様々な研究で結論付けられたように、DNNは敵攻撃を含むセキュリティ上の脅威に非常に敏感である。
本稿では,まず,ニューラルネットワークシステムに対するセキュリティ攻撃を発生させる脆弱性について考察する。
次に、DNNに対する既存の逆方向およびフォールトインジェクションに基づく攻撃の概要を示す。
また,敵攻撃の実践において,様々な課題を浮き彫りにするための簡単な分析を行った。
最後に, 対向攻撃やフォールトインジェクション攻撃に耐性のある, 堅牢なDNNベースのシステムを開発するための様々な方法についても論じる。
関連論文リスト
- Data Poisoning-based Backdoor Attack Framework against Supervised Learning Rules of Spiking Neural Networks [3.9444202574850755]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費と高ロバスト性で知られている。
本稿では,バックドア攻撃時の教師付き学習規則により訓練されたSNNの堅牢性について検討する。
論文 参考訳(メタデータ) (2024-09-24T02:15:19Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Artificial Neural Networks and Fault Injection Attacks [7.601937548486356]
この章は、障害注入攻撃に直面した人工知能(AI)とニューラルネットワーク(NN)アクセラレータのセキュリティアセスメントに関するものだ。
これらのプラットフォーム上の資産について論じ、暗号システムの分野でよく研究されているものと比較する。
論文 参考訳(メタデータ) (2020-08-17T03:29:57Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - NeuroAttack: Undermining Spiking Neural Networks Security through
Externally Triggered Bit-Flips [11.872768663147776]
Spiking Neural Networks(SNN)は、機械学習システムにおける正確性、リソース利用、エネルギー効率の課題に対する、有望な解決策として登場した。
これらのシステムは主流になってきていますが、本質的にセキュリティと信頼性の問題があります。
我々は低レベルの信頼性問題を利用してSNNの整合性を脅かすクロスレイヤー攻撃であるNeuroAttackを提案する。
論文 参考訳(メタデータ) (2020-05-16T16:54:00Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。