論文の概要: Preventing Distillation-based Attacks on Neural Network IP
- arxiv url: http://arxiv.org/abs/2204.00292v1
- Date: Fri, 1 Apr 2022 08:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 21:43:20.893071
- Title: Preventing Distillation-based Attacks on Neural Network IP
- Title(参考訳): ニューラルネットワークIPにおける蒸留攻撃の防止
- Authors: Mahdieh Grailoo, Zain Ul Abideen, Mairo Leier and Samuel Pagliarini
- Abstract要約: ニューラルネットワーク(NN)はすでにハードウェアにデプロイされており、トレーニングと最適化に何時間も費やされているため、貴重な知的財産権(IP)になっている。
そこで本研究では,蒸留による攻撃を防ぎ,予測を害する直感的な方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
- 参考スコア(独自算出の注目度): 0.9558392439655015
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Neural networks (NNs) are already deployed in hardware today, becoming
valuable intellectual property (IP) as many hours are invested in their
training and optimization. Therefore, attackers may be interested in copying,
reverse engineering, or even modifying this IP. The current practices in
hardware obfuscation, including the widely studied logic locking technique, are
insufficient to protect the actual IP of a well-trained NN: its weights. Simply
hiding the weights behind a key-based scheme is inefficient (resource-hungry)
and inadequate (attackers can exploit knowledge distillation). This paper
proposes an intuitive method to poison the predictions that prevent
distillation-based attacks; this is the first work to consider such a poisoning
approach in hardware-implemented NNs. The proposed technique obfuscates a NN so
an attacker cannot train the NN entirely or accurately. We elaborate a threat
model which highlights the difference between random logic obfuscation and the
obfuscation of NN IP. Based on this threat model, our security analysis shows
that the poisoning successfully and significantly reduces the accuracy of the
stolen NN model on various representative datasets. Moreover, the accuracy and
prediction distributions are maintained, no functionality is disturbed, nor are
high overheads incurred. Finally, we highlight that our proposed approach is
flexible and does not require manipulation of the NN toolchain.
- Abstract(参考訳): ニューラルネットワーク(nns)は、現在すでにハードウェアにデプロイされており、トレーニングと最適化に時間を費やしているため、価値ある知的財産(ip)となっている。
したがって攻撃者は、コピー、リバースエンジニアリング、さらにはこのIPの変更に関心があるかもしれない。
広く研究されている論理ロック技術を含むハードウェア難読化の現在の実践は、十分に訓練されたNNの実際のIPを保護するには不十分である。
鍵ベースのスキームの裏に重みを隠すのは、非効率(資源不足)と不十分(攻撃者は知識の蒸留を利用することができる)である。
本報告では, ハードウェア実装NNにおいて, 蒸留攻撃防止の予測を直感的に行う方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
本稿では,ランダム論理の難読化とNNIPの難読化の違いを強調する脅威モデルについて述べる。
この脅威モデルに基づいて,本研究のセキュリティ解析により,各種データセット上での盗難NNモデルの精度を大幅に低下させることができた。
さらに、精度と予測分布が維持され、機能に障害はなく、高いオーバーヘッドも発生しない。
最後に,提案手法は柔軟であり,nnツールチェーンの操作を必要としないことを強調する。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - An Embarrassingly Simple Approach for Intellectual Property Rights
Protection on Recurrent Neural Networks [11.580808497808341]
本稿では,リカレントニューラルネットワーク(RNN)における知的財産保護のための実践的アプローチを提案する。
キーを埋め込むためのRNNアーキテクチャの繰り返しの性質に類似したGatekeeperの概念を紹介します。
白箱と黒箱の両方の保護スキームにおける曖昧さと除去攻撃に対して,我々の保護スキームは堅牢かつ効果的である。
論文 参考訳(メタデータ) (2022-10-03T07:25:59Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Optimizing Information Loss Towards Robust Neural Networks [0.0]
ニューラルネットワーク(NN)は、敵の例に対して脆弱である。
テクステントロピックリトレーニングと呼ばれる新しいトレーニング手法を提案する。
情報理論にインスパイアされた分析に基づいて、エントロピー的リトレーニングは敵の訓練の効果を模倣する。
論文 参考訳(メタデータ) (2020-08-07T10:12:31Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。