論文の概要: Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids
- arxiv url: http://arxiv.org/abs/2102.09057v1
- Date: Wed, 17 Feb 2021 22:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:13:39.394655
- Title: Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids
- Title(参考訳): 電力グリッドにおける偽データインジェクション攻撃検出のための敵対的レジリエント深層ニューラルネットワーク
- Authors: Jiangnan Li, Yingyuan Yang, Jinyuan Stella Sun, Kevin Tomsovic,
Hairong Qi
- Abstract要約: 偽データ注入攻撃(FDIA)は、電力システムの状態推定において重要なセキュリティ問題です。
深部ニューラルネットワーク(DNN)は、FDIA検出のための文献で提案されている。
本稿では,敵攻撃によるFDIA検出に用いるDNNの脆弱性を評価し,防御的アプローチについて検討する。
- 参考スコア(独自算出の注目度): 9.547646433313234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: False data injection attack (FDIA) is a critical security issue in power
system state estimation. In recent years, machine learning (ML) techniques,
especially deep neural networks (DNNs), have been proposed in the literature
for FDIA detection. However, they have not considered the risk of adversarial
attacks, which were shown to be threatening to DNN's reliability in different
ML applications. In this paper, we evaluate the vulnerability of DNNs used for
FDIA detection through adversarial attacks and study the defensive approaches.
We analyze several representative adversarial defense mechanisms and
demonstrate that they have intrinsic limitations in FDIA detection. We then
design an adversarial-resilient DNN detection framework for FDIA by introducing
random input padding in both the training and inference phases. Extensive
simulations based on an IEEE standard power system show that our framework
greatly reduces the effectiveness of adversarial attacks while having little
impact on the detection performance of the DNNs.
- Abstract(参考訳): 偽データ注入攻撃(FDIA)は、電力システムの状態推定において重要なセキュリティ問題です。
近年、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)がFDIA検出のための文献で提案されている。
しかし、彼らは、異なるMLアプリケーションにおけるDNNの信頼性を脅かすことが示された敵対的攻撃のリスクを考慮していない。
本稿では,敵攻撃によるFDIA検出に用いるDNNの脆弱性を評価し,防御的アプローチについて検討する。
いくつかの代表的な防御機構を分析し,fdia検出に固有の限界があることを実証した。
次に,学習と推論の両方にランダム入力パディングを導入することで,fdiaの逆回復性dnn検出フレームワークを設計する。
IEEE標準パワーシステムに基づく広範なシミュレーションは、DNNの検出性能にほとんど影響を及ぼさずに、我々のフレームワークが敵対攻撃の有効性を大幅に低下させることを示しています。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - DNNShield: Dynamic Randomized Model Sparsification, A Defense Against
Adversarial Machine Learning [2.485182034310304]
本稿では,ハードウェアによる機械学習攻撃に対する防御手法を提案する。
DNNSHIELDは、相手入力の信頼度に応じて応答の強さに適応する。
VGG16は86%,ResNet50は88%であった。
論文 参考訳(メタデータ) (2022-07-31T19:29:44Z) - An Intrusion Detection System based on Deep Belief Networks [1.535077825808595]
我々は,接続デバイスネットワーク内におけるサイバー攻撃検出におけるDBNの性能を開発し,評価する。
提案したDBNアプローチは,トレーニングデータセットに表現されていない攻撃の検出を著しく改善し,競争力と有望な結果を示す。
論文 参考訳(メタデータ) (2022-07-05T15:38:24Z) - TESDA: Transform Enabled Statistical Detection of Attacks in Deep Neural
Networks [0.0]
攻撃のオンライン検出のための,低オーバーヘッド,フレキシブル,統計的根拠を持ったTESDAを提案する。
従来の作業とは異なり、動作の相違を検出するために、リアルタイムに動作する専用のハードウェアも、トロイの木馬トリガーの存在も必要ありません。
複数のアーキテクチャ、データセット、多様な攻撃にまたがって、我々の方法の有用性と実用性を実証的に確立する。
論文 参考訳(メタデータ) (2021-10-16T02:10:36Z) - Deep-RBF Networks for Anomaly Detection in Automotive Cyber-Physical
Systems [1.8692254863855962]
連続的なステアリング予測などのCPS回帰タスクにおける異常の検出にディープRBFネットワークをどのように使用できるかを示す。
以上の結果から,深部RBFネットワークは,追加のリソースを必要としない短時間でこれらの攻撃を確実に検出できることが示唆された。
論文 参考訳(メタデータ) (2021-03-25T23:10:32Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。