論文の概要: Precise Extraction of Deep Learning Models via Side-Channel Attacks on
Edge/Endpoint Devices
- arxiv url: http://arxiv.org/abs/2403.02870v1
- Date: Tue, 5 Mar 2024 11:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:21:27.021050
- Title: Precise Extraction of Deep Learning Models via Side-Channel Attacks on
Edge/Endpoint Devices
- Title(参考訳): エッジ/エンドポイントデバイスにおけるサイドチャネル攻撃によるディープラーニングモデルの高精度抽出
- Authors: Younghan Lee, Sohee Jun, Yungi Cho, Woorim Han, Hyungon Moon, and
Yunheung Paek
- Abstract要約: 被害者モデルを実行するデバイス上でのサイドチャネル攻撃 (SCA) について検討し, 各種のモデル情報を取得する。
私たちの仕事は、そのような関係を初めて包括的に理解します。
結果は、敵が犠牲者モデルに関するモデル情報を持っていない場合よりも、最大で5.8倍パフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 2.4945254227795797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With growing popularity, deep learning (DL) models are becoming larger-scale,
and only the companies with vast training datasets and immense computing power
can manage their business serving such large models. Most of those DL models
are proprietary to the companies who thus strive to keep their private models
safe from the model extraction attack (MEA), whose aim is to steal the model by
training surrogate models. Nowadays, companies are inclined to offload the
models from central servers to edge/endpoint devices. As revealed in the latest
studies, adversaries exploit this opportunity as new attack vectors to launch
side-channel attack (SCA) on the device running victim model and obtain various
pieces of the model information, such as the model architecture (MA) and image
dimension (ID). Our work provides a comprehensive understanding of such a
relationship for the first time and would benefit future MEA studies in both
offensive and defensive sides in that they may learn which pieces of
information exposed by SCA are more important than the others. Our analysis
additionally reveals that by grasping the victim model information from SCA,
MEA can get highly effective and successful even without any prior knowledge of
the model. Finally, to evince the practicality of our analysis results, we
empirically apply SCA, and subsequently, carry out MEA under realistic threat
assumptions. The results show up to 5.8 times better performance than when the
adversary has no model information about the victim model.
- Abstract(参考訳): 人気が高まる中、ディープラーニング(dl)モデルは大規模になりつつあり、膨大なトレーニングデータセットと膨大な計算能力を持つ企業だけが、そのような大規模モデルを提供するビジネスを管理できる。
これらのDLモデルのほとんどは、モデル抽出攻撃(MEA)からプライベートモデルを安全に保つために、代理モデルをトレーニングすることでモデルを盗もうとする企業独自のものである。
現在、企業はモデルを中央サーバーからエッジ/エンドポイントデバイスにオフロードする傾向にある。
最新の研究で明らかになったように、敵はこの機会を新たな攻撃ベクトルとして活用し、被害者モデルを実行するデバイス上でサイドチャネル攻撃(sca)を起動し、モデルアーキテクチャ(ma)やイメージディメンション(id)といった様々なモデル情報を取得する。
私たちの研究は、このような関係を初めて包括的に理解し、SCAによって暴露される情報のうちどの部分が他のものよりも重要であるかを学ぶことができるような、攻撃的かつ防御的な側面における将来のMEA研究に恩恵をもたらすでしょう。
また,本分析の結果から,SCAから被害者のモデル情報を把握することにより,モデルに関する事前の知識がなくても,MEAは極めて効果的かつ成功できることがわかった。
最後に、分析結果の実用性を明らかにするために、SCAを実証的に適用し、その後、現実的な脅威前提の下でMEAを実行する。
その結果、被害者モデルに関するモデル情報がない場合よりも、パフォーマンスが5.8倍向上した。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - Security and Privacy Challenges in Deep Learning Models [0.0]
ディープラーニングモデルは、モデルのセキュリティとデータのプライバシを侵害するさまざまな攻撃を受けることができる。
モデル抽出攻撃、モデル反転攻撃、および敵攻撃について論じる。
データ中毒攻撃は、トレーニングセットに有害なデータを追加し、学習プロセスを中断し、ディープラーニングモードの信頼性を低下させる。
論文 参考訳(メタデータ) (2023-11-23T00:26:14Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - An Empirical Study of Deep Learning Models for Vulnerability Detection [4.243592852049963]
我々は、広く使われている2つの脆弱性検出データセット上で、最先端の9つのディープラーニングモデルを調査し、再現した。
モデル能力,トレーニングデータ,モデル解釈について検討した。
我々の研究結果は、モデル結果の理解を深め、トレーニングデータ作成のガイダンスを提供し、モデルの堅牢性を向上させるのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T19:49:34Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - Thief, Beware of What Get You There: Towards Understanding Model
Extraction Attack [13.28881502612207]
いくつかのシナリオでは、AIモデルはプロプライエタリに訓練され、事前に訓練されたモデルも十分な分散データも公開されていない。
既存の手法の有効性は,事前学習モデルの欠如に大きく影響している。
モデル抽出攻撃を、これらの要因を深層強化学習で捉える適応的フレームワークに定式化します。
論文 参考訳(メタデータ) (2021-04-13T03:46:59Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。