論文の概要: DeepTheft: Stealing DNN Model Architectures through Power Side Channel
- arxiv url: http://arxiv.org/abs/2309.11894v1
- Date: Thu, 21 Sep 2023 08:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 04:10:47.717636
- Title: DeepTheft: Stealing DNN Model Architectures through Power Side Channel
- Title(参考訳): DeepTheft:パワーサイドチャネルを通じてDNNモデルアーキテクチャをステアリングする
- Authors: Yansong Gao, Huming Qiu, Zhi Zhang, Binghui Wang, Hua Ma, Alsharif Abuadbba, Minhui Xue, Anmin Fu, Surya Nepal,
- Abstract要約: Deep Neural Network(DNN)モデルは、推論サービスを提供するために、機械学習・アズ・ア・サービス(ML)としてリソース共有クラウドにデプロイされることが多い。
貴重な知的特性を持つモデルアーキテクチャを盗むために、異なるサイドチャネルリークを介して攻撃のクラスが提案されている。
我々は、RAPLベースの電源側チャネルを介して、汎用プロセッサ上の複雑なDNNモデルアーキテクチャを正確に復元する、新しいエンドツーエンドアタックであるDeepTheftを提案する。
- 参考スコア(独自算出の注目度): 42.380259435613354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Network (DNN) models are often deployed in resource-sharing clouds as Machine Learning as a Service (MLaaS) to provide inference services.To steal model architectures that are of valuable intellectual properties, a class of attacks has been proposed via different side-channel leakage, posing a serious security challenge to MLaaS. Also targeting MLaaS, we propose a new end-to-end attack, DeepTheft, to accurately recover complex DNN model architectures on general processors via the RAPL-based power side channel. However, an attacker can acquire only a low sampling rate (1 KHz) of the time-series energy traces from the RAPL interface, rendering existing techniques ineffective in stealing large and deep DNN models. To this end, we design a novel and generic learning-based framework consisting of a set of meta-models, based on which DeepTheft is demonstrated to have high accuracy in recovering a large number (thousands) of models architectures from different model families including the deepest ResNet152. Particularly, DeepTheft has achieved a Levenshtein Distance Accuracy of 99.75% in recovering network structures, and a weighted average F1 score of 99.60% in recovering diverse layer-wise hyperparameters. Besides, our proposed learning framework is general to other time-series side-channel signals. To validate its generalization, another existing side channel is exploited, i.e., CPU frequency. Different from RAPL, CPU frequency is accessible to unprivileged users in bare-metal OSes. By using our generic learning framework trained against CPU frequency traces, DeepTheft has shown similarly high attack performance in stealing model architectures.
- Abstract(参考訳): Deep Neural Network(DNN)モデルは、推論サービスを提供するためにMLaaS(Machine Learning as a Service)として、リソース共有クラウドにデプロイされることが多い。貴重な知的財産を持つモデルアーキテクチャを盗むために、さまざまなサイドチャネルリークを通じて攻撃のクラスが提案され、MLaaSに深刻なセキュリティ上の課題を提起している。
MLaaSも対象とし,RAPLベースのパワーサイドチャネルを介して,汎用プロセッサ上の複雑なDNNモデルアーキテクチャを正確に復元する,新たなエンドツーエンドアタックであるDeepTheftを提案する。
しかし、攻撃者はRAPLインタフェースから時系列エネルギートレースの低サンプリングレート(1KHz)しか取得できず、既存の技術は大規模で深いDNNモデルを盗むのに効果がない。
この目的のために、DeepTheftがResNet152を含むモデルファミリから多数のモデルアーキテクチャを復元する際の精度が高いメタモデルからなる、新規で汎用的な学習ベースのフレームワークを設計する。
特にDeepTheftは、ネットワーク構造の回復において99.75%のLevenshtein Distance精度を達成し、様々な層幅のハイパーパラメータの回復において、重み付き平均F1スコア99.60%を達成している。
さらに,提案する学習フレームワークは,他の時系列側チャネル信号に対して一般的である。
その一般化を検証するために、もう1つの既存のサイドチャネル、すなわちCPU周波数を利用する。
RAPLとは異なり、CPU周波数は、素金属OSの未使用ユーザに対してアクセス可能である。
CPU周波数トレースに対してトレーニングされた汎用的な学習フレームワークを使用することで、DeepTheftはモデルアーキテクチャを盗む際にも同様に高い攻撃性能を示した。
関連論文リスト
- Stealing the Invisible: Unveiling Pre-Trained CNN Models through
Adversarial Examples and Timing Side-Channels [14.222432788661914]
本稿では,逆画像の分類パターンをモデルから盗む手段として利用することの観察に基づくアプローチを提案する。
提案手法は,様々なモデルにまたがる様々な逆画像の誤分類を利用して,いくつかの有名な畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)アーキテクチャを指紋化する。
論文 参考訳(メタデータ) (2024-02-19T08:47:20Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Like an Open Book? Read Neural Network Architecture with Simple Power
Analysis on 32-bit Microcontrollers [0.0]
ニューラルネットワークモデルのアーキテクチャは、敵が回復しようとする最も重要な情報である。
高速32ビットマイクロコントローラ上で動作する従来のCNNモデルとCNNモデルの抽出手法を初めて提案する。
難しいケースは少ないが、パラメータ抽出とは対照的に、攻撃の複雑さは比較的低い、と我々は主張する。
論文 参考訳(メタデータ) (2023-11-02T15:55:20Z) - EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles [0.1529342790344802]
Deep Neural Networks (DNN) は、予測や分類問題のパフォーマンスのため、ユビキタスになった。
利用が広がるにつれ、さまざまな脅威に直面している。
DNNを盗み、知的財産権、データプライバシ、セキュリティを脅かすモデル抽出攻撃。
様々な脅威モデルに対応する2つの手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T21:40:09Z) - ObfuNAS: A Neural Architecture Search-based DNN Obfuscation Approach [25.5826067429808]
ディープニューラルネットワーク(DNN)セキュリティにとって、悪意あるアーキテクチャ抽出が重要な懸念事項として浮上している。
本稿では,DNNアーキテクチャの難読化をニューラルネットワーク探索(NAS)問題に変換するObfuNASを提案する。
我々はNAS-Bench-101やNAS-Bench-301のようなオープンソースのアーキテクチャデータセットを用いてObfuNASの性能を検証する。
論文 参考訳(メタデータ) (2022-08-17T23:25:42Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - Learning to Estimate RIS-Aided mmWave Channels [50.15279409856091]
そこでは,観測観測のために,既知の基地局とRIS位相制御行列を併用したアップリンクチャネル推定手法を提案する。
推定性能を向上し, トレーニングオーバーヘッドを低減するため, 深部展開法において, mmWaveチャネルの固有チャネル幅を生かした。
提案したディープ・アンフォールディング・ネットワーク・アーキテクチャは,トレーニングオーバーヘッドが比較的小さく,オンライン計算の複雑さも比較的小さく,最小二乗法(LS)法より優れていることが確認された。
論文 参考訳(メタデータ) (2021-07-27T06:57:56Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。