論文の概要: Model Extraction and Adversarial Attacks on Neural Networks using
Switching Power Information
- arxiv url: http://arxiv.org/abs/2106.08299v1
- Date: Tue, 15 Jun 2021 17:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:06:14.781466
- Title: Model Extraction and Adversarial Attacks on Neural Networks using
Switching Power Information
- Title(参考訳): スイッチングパワー情報を用いたニューラルネットワークのモデル抽出と逆攻撃
- Authors: Tommy Li and Cory Merkel
- Abstract要約: 人工ニューラルネットワーク(ANN)は、医療、輸送、防衛といった分野において、狭いAI問題を解決することで、過去10年間で大きな人気を集めている。
ANNは、ネットワークのトレーニングやテストに使用されるデータとほとんど区別がつかないにもかかわらず、ANNが高信頼の誤分類を行う原因となる、多くの敵対的回避攻撃の影響を受けやすい。
この研究は、ANNのハードウェア実装のサイドチャネル情報、特に電力消費の切り替えによって、これらの例がどの程度役立つかを調べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks (ANNs) have gained significant popularity in the
last decade for solving narrow AI problems in domains such as healthcare,
transportation, and defense. As ANNs become more ubiquitous, it is imperative
to understand their associated safety, security, and privacy vulnerabilities.
Recently, it has been shown that ANNs are susceptible to a number of
adversarial evasion attacks--inputs that cause the ANN to make high-confidence
misclassifications despite being almost indistinguishable from the data used to
train and test the network. This work explores to what degree finding these
examples maybe aided by using side-channel information, specifically switching
power consumption, of hardware implementations of ANNs. A black-box threat
scenario is assumed, where an attacker has access to the ANN hardware's input,
outputs, and topology, but the trained model parameters are unknown. Then, a
surrogate model is trained to have similar functional (i.e. input-output
mapping) and switching power characteristics as the oracle (black-box) model.
Our results indicate that the inclusion of power consumption data increases the
fidelity of the model extraction by up to 30 percent based on a mean square
error comparison of the oracle and surrogate weights. However, transferability
of adversarial examples from the surrogate to the oracle model was not
significantly affected.
- Abstract(参考訳): 人工ニューラルネットワーク(ANN)は、医療、輸送、防衛といった分野において、狭いAI問題を解決することで、過去10年間で大きな人気を集めている。
ANNがよりユビキタスになるにつれて、関連する安全性、セキュリティ、プライバシの脆弱性を理解することが不可欠である。
近年、ネットワークのトレーニングやテストに使用されるデータとほとんど区別がつかないにもかかわらず、annが高信頼の誤分類を引き起こす多くの敵対的回避攻撃に影響を受けやすいことが示されている。
この研究は、ANNのハードウェア実装のサイドチャネル情報、特に電力消費の切り替えによって、これらの例がどの程度役立つかを調べる。
攻撃者がANNハードウェアの入力、出力、トポロジーにアクセスするブラックボックスの脅威シナリオが想定されるが、訓練されたモデルパラメータは未知である。
次に、サロゲートモデルが同様の機能(すなわち)を持つように訓練される。
入出力マッピング)とoracle(ブラックボックス)モデルとしての電力特性の切り替え。
結果から,オラクルとサロゲート重みの平均二乗誤差比較により,消費電力データの導入により,モデル抽出の忠実度が最大30%向上することが示唆された。
しかし,サロゲートからオラクルモデルへの逆転例の移動性には大きな影響はなかった。
関連論文リスト
- Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Thermal Heating in ReRAM Crossbar Arrays: Challenges and Solutions [0.5672132510411465]
本稿では,CIFAR-10データセットの画像分類問題に対するSpinalNetベースのニューラルネットワークやコンパクト畳み込み変換器(CCT)などの新しいモデルの堅牢性を検討した。
特定の個人モデルに対する攻撃の有効性が高いにもかかわらず、これは他のモデルへの転送可能性を保証するものではないことが示されている。
論文 参考訳(メタデータ) (2022-12-28T05:47:19Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - A Review of Confidentiality Threats Against Embedded Neural Network
Models [0.0]
本稿では,組み込みディープニューラルネットワーク(DNN)モデルの機密性を標的とした攻撃について述べる。
私たちは、Side-Channel Analysis(SCA)がモデルの機密性を侵害できる比較的未踏のバイアスであるという事実を強調しています。
論文 参考訳(メタデータ) (2021-05-04T10:27:20Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Exploring the role of Input and Output Layers of a Deep Neural Network
in Adversarial Defense [0.0]
通常の人間を騙すのではなく、モデルを完全に誤解させる可能性のある、ある種の入力が存在することが示されている。
逆入力は、そのようなモデルが現実世界のアプリケーションで使用される場合、高いセキュリティ上の脅威となる。
本研究は, 完全に接続された3種類の高密度ネットワークの非段階的攻撃に対する耐性を解析した。
論文 参考訳(メタデータ) (2020-06-02T06:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。