論文の概要: NeuroUnlock: Unlocking the Architecture of Obfuscated Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2206.00402v1
- Date: Wed, 1 Jun 2022 11:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:41:04.084578
- Title: NeuroUnlock: Unlocking the Architecture of Obfuscated Deep Neural
Networks
- Title(参考訳): NeuroUnlock:難解なディープニューラルネットワークのアーキテクチャをアンロック
- Authors: Mahya Morid Ahmadi, Lilas Alrahis, Alessio Colucci, Ozgur Sinanoglu,
Muhammad Shafique
- Abstract要約: 我々は難読化ディープニューラルネットワーク(DNN)に対する新しいSCAS攻撃であるNeuroUnlockを紹介する。
当社のNeuroUnlockでは,難読化手順を学習し,自動的に再帰するシーケンス・ツー・シーケンスモデルを採用している。
また, DNN難読化のための新しい手法であるReDLockを提案し, 難読化の決定論的性質を根絶する。
- 参考スコア(独自算出の注目度): 12.264879142584617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancements of deep neural networks (DNNs) have led to their deployment
in diverse settings, including safety and security-critical applications. As a
result, the characteristics of these models have become sensitive intellectual
properties that require protection from malicious users. Extracting the
architecture of a DNN through leaky side-channels (e.g., memory access) allows
adversaries to (i) clone the model, and (ii) craft adversarial attacks. DNN
obfuscation thwarts side-channel-based architecture stealing (SCAS) attacks by
altering the run-time traces of a given DNN while preserving its functionality.
In this work, we expose the vulnerability of state-of-the-art DNN obfuscation
methods to these attacks. We present NeuroUnlock, a novel SCAS attack against
obfuscated DNNs. Our NeuroUnlock employs a sequence-to-sequence model that
learns the obfuscation procedure and automatically reverts it, thereby
recovering the original DNN architecture. We demonstrate the effectiveness of
NeuroUnlock by recovering the architecture of 200 randomly generated and
obfuscated DNNs running on the Nvidia RTX 2080 TI graphics processing unit
(GPU). Moreover, NeuroUnlock recovers the architecture of various other
obfuscated DNNs, such as the VGG-11, VGG-13, ResNet-20, and ResNet-32 networks.
After recovering the architecture, NeuroUnlock automatically builds a
near-equivalent DNN with only a 1.4% drop in the testing accuracy. We further
show that launching a subsequent adversarial attack on the recovered DNNs
boosts the success rate of the adversarial attack by 51.7% in average compared
to launching it on the obfuscated versions. Additionally, we propose a novel
methodology for DNN obfuscation, ReDLock, which eradicates the deterministic
nature of the obfuscation and achieves 2.16X more resilience to the NeuroUnlock
attack. We release the NeuroUnlock and the ReDLock as open-source frameworks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の進歩は、安全性やセキュリティクリティカルなアプリケーションを含むさまざまな設定への展開につながった。
その結果,これらのモデルの特徴は,悪意のあるユーザからの保護を必要とするセンシティブな知的特性となっている。
リークしたサイドチャネル(例えばメモリアクセス)を通してDNNのアーキテクチャを抽出することで、敵が攻撃できる。
(i)モデルをクローンし、
(ii)クラフト・アタック(craft adversarial attack)。
DNNの難読化は、その機能を保ちながら、特定のDNNのランタイムトレースを変更することで、サイドチャネルベースのアーキテクチャ盗難(SCAS)攻撃を阻止する。
本研究では,これらの攻撃に対して最先端のDNN難読化手法の脆弱性を明らかにする。
本稿では,難読化DNNに対する新しいSCAS攻撃であるNeuroUnlockを紹介する。
我々のNeuroUnlockでは,難読化手順を学習し,自動的に再帰するシーケンス・ツー・シーケンスモデルを用いて,元のDNNアーキテクチャを復元する。
Nvidia RTX 2080 TIグラフィックス処理ユニット(GPU)上で動作する200個のランダムに生成された難読化DNNのアーキテクチャを復元し,NeuroUnlockの有効性を示す。
さらにNeuroUnlockは、VGG-11、VGG-13、ResNet-20、ResNet-32ネットワークなどの難読化DNNのアーキテクチャを復元する。
アーキテクチャを回復した後、NeuroUnlockはテスト精度が1.4%のほぼ等価なDNNを自動的に構築する。
さらに、回収されたDNNに対するその後の敵攻撃は、難読化されたバージョンの攻撃と比較して、敵攻撃の成功率を平均51.7%向上させることを示した。
さらに,DNN難読化のための新しい手法であるReDLockを提案する。これは,難読化の決定論的性質を根絶し,NeuroUnlock攻撃に対する2.16倍のレジリエンスを実現する。
neurounlockとredlockをオープンソースフレームワークとしてリリースします。
関連論文リスト
- Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Finite Gaussian Neurons: Defending against adversarial attacks by making
neural networks say "I don't know" [0.0]
人工ニューラルネットワークのための新しいニューロンアーキテクチャであるFinite Gaussian Neuron (FGN)を紹介する。
私の仕事は、 - 既存のモデルをFGNアーキテクチャに簡単に変換すること、 - 既存のモデルの振る舞いを実際のデータに保存すること、および、敵対的攻撃に対する抵抗を提供することである。
論文 参考訳(メタデータ) (2023-06-13T14:17:25Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles [0.1529342790344802]
Deep Neural Networks (DNN) は、予測や分類問題のパフォーマンスのため、ユビキタスになった。
利用が広がるにつれ、さまざまな脅威に直面している。
DNNを盗み、知的財産権、データプライバシ、セキュリティを脅かすモデル抽出攻撃。
様々な脅威モデルに対応する2つの手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T21:40:09Z) - ObfuNAS: A Neural Architecture Search-based DNN Obfuscation Approach [25.5826067429808]
ディープニューラルネットワーク(DNN)セキュリティにとって、悪意あるアーキテクチャ抽出が重要な懸念事項として浮上している。
本稿では,DNNアーキテクチャの難読化をニューラルネットワーク探索(NAS)問題に変換するObfuNASを提案する。
我々はNAS-Bench-101やNAS-Bench-301のようなオープンソースのアーキテクチャデータセットを用いてObfuNASの性能を検証する。
論文 参考訳(メタデータ) (2022-08-17T23:25:42Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Deep-Lock: Secure Authorization for Deep Neural Networks [9.0579592131111]
ディープニューラルネットワーク(DNN)モデルは、いくつかのビジネスモデルにおいて価値のある知的特性(IP)と見なされている。
このようなDNNモデルのIP盗難や不正使用の防止は、業界で重要な懸念事項となっている。
そこで本研究では,ロックされたモデルが正しい秘密鍵を適用した場合にのみ正しく機能することを保証する,汎用的で軽量なキーベースモデルロック方式を提案する。
論文 参考訳(メタデータ) (2020-08-13T15:22:49Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。