論文の概要: SparseLock: Securing Neural Network Models in Deep Learning Accelerators
- arxiv url: http://arxiv.org/abs/2311.02628v1
- Date: Sun, 5 Nov 2023 12:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 13:45:54.885247
- Title: SparseLock: Securing Neural Network Models in Deep Learning Accelerators
- Title(参考訳): SparseLock:ディープラーニングアクセラレータにおけるニューラルネットワークモデルのセキュア化
- Authors: Nivedita Shrivastava, Smruti R. Sarangi,
- Abstract要約: モデル抽出とパラメータ抽出攻撃に対するニューラルネットワーク(NN)の確保は重要な問題である。
最近提案されたsparse NNに対する攻撃に対する対策(CM)はない。
本稿では、あらゆる種類の攻撃から保護する総合的なCMであるSparseLockを提案する。
- 参考スコア(独自算出の注目度): 0.4143603294943439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Securing neural networks (NNs) against model extraction and parameter exfiltration attacks is an important problem primarily because modern NNs take a lot of time and resources to build and train. We observe that there are no countermeasures (CMs) against recently proposed attacks on sparse NNs and there is no single CM that effectively protects against all types of known attacks for both sparse as well as dense NNs. In this paper, we propose SparseLock, a comprehensive CM that protects against all types of attacks including some of the very recently proposed ones for which no CM exists as of today. We rely on a novel compression algorithm and binning strategy. Our security guarantees are based on the inherent hardness of bin packing and inverse bin packing problems. We also perform a battery of statistical and information theory based tests to successfully show that we leak very little information and side channels in our architecture are akin to random sources. In addition, we show a performance benefit of 47.13% over the nearest competing secure architecture.
- Abstract(参考訳): モデル抽出とパラメータ抽出攻撃に対するニューラルネットワーク(NN)のセキュア化は、主に、現代的なNNの構築とトレーニングに多くの時間とリソースを要するため、重要な問題である。
我々は,近年提案されているスパースNNに対する攻撃に対する対策(CM)は存在せず,スパースと高密度NNに対するすべての既知の攻撃に対して効果的に防御する単一のCMも存在しないことを観察した。
本稿では,近年提案されているCMが存在しないものを含め,あらゆる種類の攻撃から保護する総合的なCMであるSparseLockを提案する。
我々は新しい圧縮アルゴリズムとビンニング戦略に依存している。
我々のセキュリティ保証は、ビンパッキングと逆ビンパッキングの問題の本質的な難しさに基づいている。
また、統計的および情報理論に基づくテストを行い、アーキテクチャ内のサイドチャネルがランダムなソースに類似していることを示しました。
さらに、最も近い競合するセキュアアーキテクチャよりも47.13%の性能上の利点を示す。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - RIBAC: Towards Robust and Imperceptible Backdoor Attack against Compact
DNN [28.94653593443991]
近年のバックドア攻撃は、ディープニューラルネットワーク(DNN)モデルのセキュリティに対する新たな脅威となっている。
本稿では,コンパクトDNNモデル(RIBAC)に対するロバストおよび非受容性バックドアアタックの研究と開発について述べる。
論文 参考訳(メタデータ) (2022-08-22T21:27:09Z) - Preventing Distillation-based Attacks on Neural Network IP [0.9558392439655015]
ニューラルネットワーク(NN)はすでにハードウェアにデプロイされており、トレーニングと最適化に何時間も費やされているため、貴重な知的財産権(IP)になっている。
そこで本研究では,蒸留による攻撃を防ぎ,予測を害する直感的な方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
論文 参考訳(メタデータ) (2022-04-01T08:53:57Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。