論文の概要: Exploiting Vulnerabilities of Deep Learning-based Energy Theft Detection
in AMI through Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2010.09212v1
- Date: Fri, 16 Oct 2020 02:25:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:51:29.525564
- Title: Exploiting Vulnerabilities of Deep Learning-based Energy Theft Detection
in AMI through Adversarial Attacks
- Title(参考訳): 敵攻撃によるAMIにおける深層学習によるエネルギー盗難検出の爆発的脆弱性
- Authors: Jiangnan Li, Yingyuan Yang, Jinyuan Stella Sun
- Abstract要約: 本研究では,一段階攻撃や反復攻撃を含む敵攻撃による深層学習によるエネルギー盗難検出の脆弱性について検討した。
3種類のニューラルネットワークによる評価は,DLモデルによって検出されることなく,敵攻撃者が極めて低消費電力の測定をユーティリティに報告できることを示唆している。
- 参考スコア(独自算出の注目度): 1.5791732557395552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective detection of energy theft can prevent revenue losses of utility
companies and is also important for smart grid security. In recent years,
enabled by the massive fine-grained smart meter data, deep learning (DL)
approaches are becoming popular in the literature to detect energy theft in the
advanced metering infrastructure (AMI). However, as neural networks are shown
to be vulnerable to adversarial examples, the security of the DL models is of
concern.
In this work, we study the vulnerabilities of DL-based energy theft detection
through adversarial attacks, including single-step attacks and iterative
attacks. From the attacker's point of view, we design the
\textit{SearchFromFree} framework that consists of 1) a randomly adversarial
measurement initialization approach to maximize the stolen profit and 2) a
step-size searching scheme to increase the performance of black-box iterative
attacks. The evaluation based on three types of neural networks shows that the
adversarial attacker can report extremely low consumption measurements to the
utility without being detected by the DL models. We finally discuss the
potential defense mechanisms against adversarial attacks in energy theft
detection.
- Abstract(参考訳): エネルギー盗難の効果的な検出は、ユーティリティ企業の収益損失を防止し、スマートグリッドセキュリティにとっても重要である。
近年,大規模細粒度スマートメータデータにより,高度計測インフラ(ami)のエネルギー盗難検出のための文献において,ディープラーニング(dl)手法が普及している。
しかしながら、ニューラルネットワークは敵の例に弱いことが示されているため、DLモデルのセキュリティは懸念される。
本研究では,一段階攻撃や反復攻撃を含む敵攻撃によるDLベースエネルギー盗難検出の脆弱性について検討する。
攻撃者の視点では、我々は、構成する \textit{SearchFromFree} フレームワークを設計する。
1)盗難利益を最大化するための無作為逆計測初期化手法
2)ブラックボックス反復攻撃の性能を高めるためのステップサイズの探索手法。
3種類のニューラルネットワークによる評価は,DLモデルによって検出されることなく,敵攻撃者が極めて低消費電力の測定をユーティリティに報告できることを示唆している。
エネルギー盗難検知における敵攻撃に対する防御機構について論じる。
関連論文リスト
- Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Security Analysis of Camera-LiDAR Semantic-Level Fusion Against
Black-Box Attacks on Autonomous Vehicles [6.477833151094911]
近年、深いニューラルネットワーク上に構築されたLiDARベースの知覚は、スプーフィング攻撃に弱いことが示されている。
我々は、スプーフィング攻撃下でのカメラ-LiDAR融合の最初の解析と、任意のAVコンテキストにおけるセマンティックフュージョンの最初のセキュリティ解析を行う。
セマンティックカメラとLiDARの融合は、標的モデルに対して70%から90%の成功率でフラストタル攻撃に対する広範な脆弱性を示す。
論文 参考訳(メタデータ) (2021-06-13T21:59:19Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - SearchFromFree: Adversarial Measurements for Machine Learning-based
Energy Theft Detection [1.5791732557395552]
エネルギー盗難は世界中の電力会社に大きな経済的損失をもたらす。
本研究では,エネルギー盗難検出のための優れたMLモデルが,敵攻撃に対して極めて脆弱であることを示す。
論文 参考訳(メタデータ) (2020-06-02T19:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。