論文の概要: Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids
- arxiv url: http://arxiv.org/abs/2102.09057v2
- Date: Wed, 10 May 2023 21:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 19:24:43.393055
- Title: Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids
- Title(参考訳): 電力グリッドにおける偽データインジェクション攻撃検出のための敵対的レジリエント深層ニューラルネットワーク
- Authors: Jiangnan Li, Yingyuan Yang, Jinyuan Stella Sun, Kevin Tomsovic,
Hairong Qi
- Abstract要約: 偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
- 参考スコア(独自算出の注目度): 7.351477761427584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: False data injection attacks (FDIAs) pose a significant security threat to
power system state estimation. To detect such attacks, recent studies have
proposed machine learning (ML) techniques, particularly deep neural networks
(DNNs). However, most of these methods fail to account for the risk posed by
adversarial measurements, which can compromise the reliability of DNNs in
various ML applications. In this paper, we present a DNN-based FDIA detection
approach that is resilient to adversarial attacks. We first analyze several
adversarial defense mechanisms used in computer vision and show their inherent
limitations in FDIA detection. We then propose an adversarial-resilient DNN
detection framework for FDIA that incorporates random input padding in both the
training and inference phases. Our simulations, based on an IEEE standard power
system, demonstrate that this framework significantly reduces the effectiveness
of adversarial attacks while having a negligible impact on the DNNs' detection
performance.
- Abstract(参考訳): 偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
このような攻撃を検出するため、最近の研究では機械学習(ML)技術、特にディープニューラルネットワーク(DNN)を提案している。
しかし、これらの手法のほとんどは、さまざまなMLアプリケーションにおけるDNNの信頼性を損なう可能性のある、逆測によるリスクを考慮できない。
本稿では,DNNに基づくFDIA検出手法を提案する。
まず,コンピュータビジョンで使用される敵防御機構を解析し,fdia検出に固有の限界を示す。
次に,FDIAの学習と推論の両フェーズにランダムな入力パディングを組み込んだ逆応答型DNN検出フレームワークを提案する。
本手法は, IEEE標準電力システムに基づくシミュレーションにより, DNNの検出性能に悪影響を及ぼすことなく, 敵攻撃の有効性を著しく低減することを示した。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning [2.485182034310304]
本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
論文 参考訳(メタデータ) (2022-07-31T19:29:44Z) - An Intrusion Detection System based on Deep Belief Networks [1.535077825808595]
我々は,接続デバイスネットワーク内におけるサイバー攻撃検出におけるDBNの性能を開発し,評価する。
提案したDBNアプローチは,トレーニングデータセットに表現されていない攻撃の検出を著しく改善し,競争力と有望な結果を示す。
論文 参考訳(メタデータ) (2022-07-05T15:38:24Z) - TESDA: Transform Enabled Statistical Detection of Attacks in Deep Neural
Networks [0.0]
攻撃のオンライン検出のための,低オーバーヘッド,フレキシブル,統計的根拠を持ったTESDAを提案する。
従来の作業とは異なり、動作の相違を検出するために、リアルタイムに動作する専用のハードウェアも、トロイの木馬トリガーの存在も必要ありません。
複数のアーキテクチャ、データセット、多様な攻撃にまたがって、我々の方法の有用性と実用性を実証的に確立する。
論文 参考訳(メタデータ) (2021-10-16T02:10:36Z) - Deep-RBF Networks for Anomaly Detection in Automotive Cyber-Physical
Systems [1.8692254863855962]
連続的なステアリング予測などのCPS回帰タスクにおける異常の検出にディープRBFネットワークをどのように使用できるかを示す。
以上の結果から,深部RBFネットワークは,追加のリソースを必要としない短時間でこれらの攻撃を確実に検出できることが示唆された。
論文 参考訳(メタデータ) (2021-03-25T23:10:32Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。