論文の概要: Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2103.14739v1
- Date: Fri, 26 Mar 2021 21:28:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:37:23.790789
- Title: Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses
- Title(参考訳): Leaky Nets: シンプルなパワーとタイミングのサイドチャネルを通じて、組み込みニューラルネットワークモデルと入力を復元する -- 攻撃と防御
- Authors: Saurav Maji, Utsav Banerjee, and Anantha P. Chandrakasan
- Abstract要約: ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
- 参考スコア(独自算出の注目度): 4.014351341279427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent advancements in machine learning theory, many commercial
embedded micro-processors use neural network models for a variety of signal
processing applications. However, their associated side-channel security
vulnerabilities pose a major concern. There have been several proof-of-concept
attacks demonstrating the extraction of their model parameters and input data.
But, many of these attacks involve specific assumptions, have limited
applicability, or pose huge overheads to the attacker. In this work, we study
the side-channel vulnerabilities of embedded neural network implementations by
recovering their parameters using timing-based information leakage and simple
power analysis side-channel attacks. We demonstrate our attacks on popular
micro-controller platforms over networks of different precisions such as
floating point, fixed point, binary networks. We are able to successfully
recover not only the model parameters but also the inputs for the above
networks. Countermeasures against timing-based attacks are implemented and
their overheads are analyzed.
- Abstract(参考訳): 機械学習理論の最近の進歩により、多くの商用組み込みマイクロプロセッサは様々な信号処理用途にニューラルネットワークモデルを使用している。
しかし、関連するサイドチャネルのセキュリティ脆弱性は大きな懸念を引き起こす。
モデルパラメータと入力データの抽出を実証する概念実証攻撃がいくつか行われている。
しかし、これらの攻撃の多くは特定の仮定、適用可能性の制限、あるいは攻撃者に大きなオーバーヘッドをもたらす。
本研究では、タイミングに基づく情報漏洩と単純な電力分析によるサイドチャネル攻撃を用いて、パラメータを復元することで、組み込みニューラルネットワーク実装のサイドチャネル脆弱性について検討する。
我々は,浮動小数点,固定点,バイナリネットワークなど,異なる精度のネットワーク上での一般的なマイクロコントローラプラットフォームに対する攻撃を実演する。
我々は、モデルパラメータだけでなく、上記のネットワークの入力も回収できる。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
関連論文リスト
- When Side-Channel Attacks Break the Black-Box Property of Embedded
Artificial Intelligence [0.8192907805418583]
ディープニューラルネットワーク(DNN)は、人間の観察者にとって検出不能な状態でネットワークを騙すために設計された悪意のある例である。
本稿では,ロジットを抽出することで,この制約を解決するアーキテクチャ非依存攻撃を提案する。
本手法は, 電磁漏れを利用したサイドチャネル攻撃を行うことにより, ハードウェアとソフトウェアを併用する。
論文 参考訳(メタデータ) (2023-11-23T13:41:22Z) - Fault Injection on Embedded Neural Networks: Impact of a Single
Instruction Skip [1.3654846342364308]
我々は、Cortex M432ビットマイクロコントローラプラットフォーム上に埋め込まれたニューラルネットワークモデルに適用した、2つの障害注入手段である電磁およびレーザー注入の使用に関する最初の実験を行った。
我々のゴールは、命令スキップである特定の障害モデルの影響をシミュレートし、実験的に示すことである。
我々は、典型的な畳み込みニューラルネットワークモデルの推論プログラムにおけるいくつかのステップをターゲットにして、整合性の脅威を明らかにする。
論文 参考訳(メタデータ) (2023-08-31T12:14:37Z) - Adversarial Attacks on Leakage Detectors in Water Distribution Networks [6.125017875330933]
配水ネットワークにおける機械学習に基づく漏洩検知器に対する敵攻撃の分類法を提案する。
最も敏感な点問題の数学的形式化に基づいて、解を見つけるために3つの異なるアルゴリズムアプローチを用いる。
論文 参考訳(メタデータ) (2023-05-25T12:05:18Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Enhancing Robustness Against Adversarial Examples in Network Intrusion
Detection Systems [1.7386735294534732]
RePOは、異なるタイプのネットワーク攻撃を偽の警告設定で検出できるオートエンコーダを識別する助けを借りて、NIDSを構築するための新しいメカニズムである。
評価の結果,悪質なトラフィックの検出は,通常設定では最大29%,対向設定では最大45%改善できることがわかった。
論文 参考訳(メタデータ) (2020-08-09T07:04:06Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。