論文の概要: Mercury: An Automated Remote Side-channel Attack to Nvidia Deep Learning
Accelerator
- arxiv url: http://arxiv.org/abs/2308.01193v1
- Date: Wed, 2 Aug 2023 15:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 12:43:13.957339
- Title: Mercury: An Automated Remote Side-channel Attack to Nvidia Deep Learning
Accelerator
- Title(参考訳): NvidiaのDeep Learning Acceleratorにリモートサイドチャネルを自動攻撃するMercury
- Authors: Xiaobei Yan, Xiaoxuan Lou, Guowen Xu, Han Qiu, Shangwei Guo, Chip Hong
Chang, Tianwei Zhang
- Abstract要約: 本稿では、市販のNvidia DNNアクセラレーターに対する最初の自動リモートサイドチャネル攻撃であるMercuryについて述べる。
敵は、時間とデジタルのコンバータを利用して、ターゲットモデルの推論のパワートレースを遠隔で収集することができる。
その結果,水銀はモデル抽出の誤差率を1%以下に抑えることができた。
- 参考スコア(独自算出の注目度): 30.933408502293886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DNN accelerators have been widely deployed in many scenarios to speed up the
inference process and reduce the energy consumption. One big concern about the
usage of the accelerators is the confidentiality of the deployed models: model
inference execution on the accelerators could leak side-channel information,
which enables an adversary to preciously recover the model details. Such model
extraction attacks can not only compromise the intellectual property of DNN
models, but also facilitate some adversarial attacks.
Although previous works have demonstrated a number of side-channel techniques
to extract models from DNN accelerators, they are not practical for two
reasons. (1) They only target simplified accelerator implementations, which
have limited practicality in the real world. (2) They require heavy human
analysis and domain knowledge. To overcome these limitations, this paper
presents Mercury, the first automated remote side-channel attack against the
off-the-shelf Nvidia DNN accelerator. The key insight of Mercury is to model
the side-channel extraction process as a sequence-to-sequence problem. The
adversary can leverage a time-to-digital converter (TDC) to remotely collect
the power trace of the target model's inference. Then he uses a learning model
to automatically recover the architecture details of the victim model from the
power trace without any prior knowledge. The adversary can further use the
attention mechanism to localize the leakage points that contribute most to the
attack. Evaluation results indicate that Mercury can keep the error rate of
model extraction below 1%.
- Abstract(参考訳): DNNアクセラレータは、推論プロセスを高速化し、エネルギー消費を減らすために、多くのシナリオで広くデプロイされている。
アクセラレーションの利用に関する大きな懸念のひとつは、デプロイされたモデルの機密性である。 アクセラレーション上でのモデル推論の実行は、サイドチャネル情報をリークする可能性があるため、敵が重要なモデル詳細を回復することができる。
このようなモデル抽出攻撃は、DNNモデルの知的特性を損なうだけでなく、いくつかの敵攻撃を促進する。
これまでの研究では、DNNアクセラレーターからモデルを抽出するためのサイドチャネル技術がいくつか示されているが、2つの理由から実用的ではない。
1) 現実の実用性に限界がある簡易な加速器実装のみを対象としている。
(2)人間分析とドメイン知識を必要とする。
これらの制限を克服するために,本論文では,市販のnvidia dnnアクセラレータに対する初の自動遠隔サイドチャネル攻撃であるmercuryを提案する。
マーキュリーの重要な洞察は、側チャネル抽出過程をシーケンス対シーケンス問題としてモデル化することである。
敵は、TDC(Time-to-digital converter)を利用して、ターゲットモデルの推論のパワートレースを遠隔で収集することができる。
そして、彼は学習モデルを使用して、事前の知識なしで、被害者モデルのアーキテクチャの詳細をパワートレースから自動的に回復する。
敵はアテンション機構を利用して、攻撃に最も寄与するリークポイントをローカライズすることができる。
評価の結果,水銀はモデル抽出の誤差率を1%以下に抑えることができた。
関連論文リスト
- QUEEN: Query Unlearning against Model Extraction [22.434812818540966]
モデル抽出攻撃は、ディープラーニングモデルのセキュリティとプライバシに対して、無視できない脅威となる。
本稿では,QUEEN(QUEry unlEarNing)を提案する。
論文 参考訳(メタデータ) (2024-07-01T13:01:41Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks [21.611341074006162]
AIAShieldはFPGAベースのAIアクセラレータを保護するための新しい防衛手法である。
我々は、機械学習コミュニティの卓越した敵攻撃技術を活用して、繊細なノイズを発生させる。
AIAShieldは、転送性に優れた既存のソリューションより優れている。
論文 参考訳(メタデータ) (2023-12-07T04:38:01Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - The Dark Side of AutoML: Towards Architectural Backdoor Search [49.16544351888333]
EVASはNASを利用した新たな攻撃で、固有のバックドアを持つニューラルネットワークを見つけ出し、入力認識トリガを使用してそのような脆弱性を悪用する。
EVASは高い回避性、転送可能性、堅牢性を特徴とし、敵の設計スペクトルを拡大する。
この研究は、NASの現在の実践に対する懸念を高め、効果的な対策を開発するための潜在的方向性を示す。
論文 参考訳(メタデータ) (2022-10-21T18:13:23Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - 2-in-1 Accelerator: Enabling Random Precision Switch for Winning Both
Adversarial Robustness and Efficiency [26.920864182619844]
DNN加速器の対向的堅牢性と効率の両立を目的とした2-in-1加速器を提案する。
具体的には、まず、DNNを敵攻撃から効果的に防御できる乱精度スイッチ(RPS)アルゴリズムを提案する。
さらに,(1)新しい精度・スケール可能なユニットアーキテクチャを特徴とする,新しい精度・スケール可能なアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-09-11T08:51:01Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z) - Model Extraction Attacks against Recurrent Neural Networks [1.2891210250935146]
繰り返しニューラルネットワーク(RNN)に対するモデル抽出攻撃の脅威について検討する。
長い短期記憶(LSTM)から単純なRNNを用いて精度の高いモデルを抽出できるかどうかを論じる。
次に、特に損失関数とより複雑なアーキテクチャを構成することにより、精度の高いモデルを効率的に抽出できることを示す。
論文 参考訳(メタデータ) (2020-02-01T01:47:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。