論文の概要: EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles
- arxiv url: http://arxiv.org/abs/2304.03388v1
- Date: Thu, 6 Apr 2023 21:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 13:29:17.626233
- Title: EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles
- Title(参考訳): EZClone:GPU実行プロファイルからの形状蒸留によるDNNモデル抽出攻撃の改善
- Authors: Jonah O'Brien Weiss, Tiago Alves, Sandip Kundu
- Abstract要約: Deep Neural Networks (DNN) は、予測や分類問題のパフォーマンスのため、ユビキタスになった。
利用が広がるにつれ、さまざまな脅威に直面している。
DNNを盗み、知的財産権、データプライバシ、セキュリティを脅かすモデル抽出攻撃。
様々な脅威モデルに対応する2つの手法を提案する。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have become ubiquitous due to their performance
on prediction and classification problems. However, they face a variety of
threats as their usage spreads. Model extraction attacks, which steal DNNs,
endanger intellectual property, data privacy, and security. Previous research
has shown that system-level side-channels can be used to leak the architecture
of a victim DNN, exacerbating these risks. We propose two DNN architecture
extraction techniques catering to various threat models. The first technique
uses a malicious, dynamically linked version of PyTorch to expose a victim DNN
architecture through the PyTorch profiler. The second, called EZClone, exploits
aggregate (rather than time-series) GPU profiles as a side-channel to predict
DNN architecture, employing a simple approach and assuming little adversary
capability as compared to previous work. We investigate the effectiveness of
EZClone when minimizing the complexity of the attack, when applied to pruned
models, and when applied across GPUs. We find that EZClone correctly predicts
DNN architectures for the entire set of PyTorch vision architectures with 100%
accuracy. No other work has shown this degree of architecture prediction
accuracy with the same adversarial constraints or using aggregate side-channel
information. Prior work has shown that, once a DNN has been successfully
cloned, further attacks such as model evasion or model inversion can be
accelerated significantly.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)は,予測問題や分類問題のパフォーマンスのため,広く普及している。
しかし、利用が広がるにつれて、さまざまな脅威に直面している。
dnnを盗み、知的財産、データのプライバシー、セキュリティを危険にさらすモデル抽出攻撃。
これまでの研究では、システムレベルのサイドチャネルが被害者のDNNのアーキテクチャを漏洩させ、これらのリスクを悪化させることが示されている。
様々な脅威モデルに対応する2つのDNNアーキテクチャ抽出手法を提案する。
最初のテクニックは悪質で動的にリンクされたPyTorchを使用して、被害者のDNNアーキテクチャをPyTorchプロファイラを通じて公開する。
2つ目はEZCloneと呼ばれ、DNNアーキテクチャを予測するためのサイドチャネルとして(時系列ではなく)集約GPUプロファイルを利用しており、単純なアプローチを採用し、以前の作業と比べてほとんど逆の機能を仮定している。
本研究では,攻撃の複雑さを最小化したり,プルーニングモデルに適用したり,gpuにまたがって適用した場合にezcloneの有効性について検討する。
ezcloneは、100%精度でpytorch visionアーキテクチャ全体のdnnアーキテクチャを正確に予測していることがわかった。
同じ敵の制約や、集約されたサイドチャネル情報を使ったアーキテクチャ予測の正確さを示す他の作業は存在しない。
以前の研究では、DNNのクローン化が成功すれば、モデル回避やモデル逆転といった攻撃が大幅に加速できることが示されている。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Quantization Aware Attack: Enhancing Transferable Adversarial Attacks by Model Quantization [57.87950229651958]
量子ニューラルネットワーク(QNN)は、異常な一般化性のため、リソース制約のあるシナリオに注目が集まっている。
従来の研究では、ビット幅の異なるQNN間で転送性を実現することは困難であった。
マルチビット学習目的のQNN代替モデルを微調整するテキスト品質認識攻撃(QAA)を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:46:53Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - ObfuNAS: A Neural Architecture Search-based DNN Obfuscation Approach [25.5826067429808]
ディープニューラルネットワーク(DNN)セキュリティにとって、悪意あるアーキテクチャ抽出が重要な懸念事項として浮上している。
本稿では,DNNアーキテクチャの難読化をニューラルネットワーク探索(NAS)問題に変換するObfuNASを提案する。
我々はNAS-Bench-101やNAS-Bench-301のようなオープンソースのアーキテクチャデータセットを用いてObfuNASの性能を検証する。
論文 参考訳(メタデータ) (2022-08-17T23:25:42Z) - Model-Contrastive Learning for Backdoor Defense [13.781375023320981]
モデル・コントラスト学習に基づく新しいバックドア・ディフェンス手法 MCL を提案する。
MCLは、良質なデータの高い精度を維持しながら、バックドアの脅威を減らすのに効果的である。
論文 参考訳(メタデータ) (2022-05-09T16:36:46Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。