論文の概要: Enhancing Adversarial Attacks on Single-Layer NVM Crossbar-Based Neural
Networks with Power Consumption Information
- arxiv url: http://arxiv.org/abs/2207.02764v1
- Date: Wed, 6 Jul 2022 15:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 16:25:39.342178
- Title: Enhancing Adversarial Attacks on Single-Layer NVM Crossbar-Based Neural
Networks with Power Consumption Information
- Title(参考訳): 電力消費情報を用いた単層NVMクロスバーニューラルネットワークの敵攻撃促進
- Authors: Cory Merkel
- Abstract要約: 最先端の機械学習モデルに対する敵対的な攻撃は、ミッションクリティカルな自律システムの安全性とセキュリティに重大な脅威をもたらす。
本稿では、攻撃者が基盤となるハードウェアプラットフォームの消費電力を計測できる場合、機械学習モデルのさらなる脆弱性について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks on state-of-the-art machine learning models pose a
significant threat to the safety and security of mission-critical autonomous
systems. This paper considers the additional vulnerability of machine learning
models when attackers can measure the power consumption of their underlying
hardware platform. In particular, we explore the utility of power consumption
information for adversarial attacks on non-volatile memory crossbar-based
single-layer neural networks. Our results from experiments with MNIST and
CIFAR-10 datasets show that power consumption can reveal important information
about the neural network's weight matrix, such as the 1-norm of its columns.
That information can be used to infer the sensitivity of the network's loss
with respect to different inputs. We also find that surrogate-based black box
attacks that utilize crossbar power information can lead to improved attack
efficiency.
- Abstract(参考訳): 最先端の機械学習モデルに対する敵対的な攻撃は、ミッションクリティカルな自律システムの安全性とセキュリティに重大な脅威をもたらす。
本稿では、攻撃者が基盤となるハードウェアプラットフォームの消費電力を計測できる場合の機械学習モデルの脆弱性について考察する。
特に,不揮発性メモリクロスバーベース単層ニューラルネットワークの逆攻撃に対する消費電力情報の有用性について検討する。
MNISTとCIFAR-10データセットを用いた実験の結果,ニューラルネットワークの重み行列に関する重要な情報(列の1ノルムなど)を消費電力によって明らかにできることがわかった。
この情報は、異なる入力に対するネットワークの損失の感度を推測するために使用できる。
また,クロスバーパワー情報を利用したサロゲートベースのブラックボックス攻撃は,攻撃効率の向上につながる可能性がある。
関連論文リスト
- Discovery of False Data Injection Schemes on Frequency Controllers with Reinforcement Learning [7.540446548202259]
インバータベースの分散エネルギー資源(DER)は、再生可能エネルギーを電力システムに統合する上で重要な役割を果たす。
我々は、潜在的な脅威やシステムの脆弱性を特定するために強化学習を採用することを提案する。
論文 参考訳(メタデータ) (2024-08-30T01:09:32Z) - Investigation of Multi-stage Attack and Defense Simulation for Data Synthesis [2.479074862022315]
本研究では,電力網における多段階サイバー攻撃の合成データを生成するモデルを提案する。
攻撃者のステップのシーケンスをモデル化するためにアタックツリーを使用し、ディフェンダーのアクションを組み込むゲーム理論のアプローチを使用する。
論文 参考訳(メタデータ) (2023-12-21T09:54:18Z) - PowerGAN: A Machine Learning Approach for Power Side-Channel Attack on
Compute-in-Memory Accelerators [10.592555190999537]
本稿では、GAN(Generative Adversarial Network)を用いた機械学習による攻撃手法を実証し、データ再構成を強化する。
その結果,攻撃手法はアナログCIM加速器の電力リークによるユーザ入力の再構築に有効であることが示唆された。
本研究は、アナログCIMアクセラレーターにおける潜在的なセキュリティ脆弱性を強調し、そのようなシステムにおけるユーザプライバシを侵害するためにGANを使用することに対する認識を高める。
論文 参考訳(メタデータ) (2023-04-13T18:50:33Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Sponge Examples: Energy-Latency Attacks on Neural Networks [27.797657094947017]
エネルギー消費や決定遅延が重要となるニューラルネットワークに対して,新たな脅威ベクトルを導入する。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
私たちの攻撃は、自動運転車の認識など、ネットワークがリアルタイムに重要なパフォーマンスを持つ決定を遅らせるのにも使用できます。
論文 参考訳(メタデータ) (2020-06-05T14:10:09Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。