論文の概要: Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays
- arxiv url: http://arxiv.org/abs/2506.19302v1
- Date: Tue, 24 Jun 2025 04:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.490261
- Title: Adversarial Attacks on Deep Learning-Based False Data Injection Detection in Differential Relays
- Title(参考訳): ディファレンシャルリレーにおける深層学習に基づく偽データ注入検出の逆攻撃
- Authors: Ahmad Mohammad Saber, Aditi Maheshwari, Amr Youssef, Deepa Kundur,
- Abstract要約: 本稿では,False Data Injection Attacks (FDIA) に使用される既存のディープラーニングベーススキーム (DLS) を,FDIA(False Data Injection Attacks) としてスマートグリッドで回避できることを示す。
本稿では, DLS 脆弱性を利用したFast Gradient Sign Method を利用した新たな攻撃フレームワークを提案する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにし,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を示した。
- 参考スコア(独自算出の注目度): 3.4061238650474666
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The application of Deep Learning-based Schemes (DLSs) for detecting False Data Injection Attacks (FDIAs) in smart grids has attracted significant attention. This paper demonstrates that adversarial attacks, carefully crafted FDIAs, can evade existing DLSs used for FDIA detection in Line Current Differential Relays (LCDRs). We propose a novel adversarial attack framework, utilizing the Fast Gradient Sign Method, which exploits DLS vulnerabilities by introducing small perturbations to LCDR remote measurements, leading to misclassification of the FDIA as a legitimate fault while also triggering the LCDR to trip. We evaluate the robustness of multiple deep learning models, including multi-layer perceptrons, convolutional neural networks, long short-term memory networks, and residual networks, under adversarial conditions. Our experimental results demonstrate that while these models perform well, they exhibit high degrees of vulnerability to adversarial attacks. For some models, the adversarial attack success rate exceeds 99.7%. To address this threat, we introduce adversarial training as a proactive defense mechanism, significantly enhancing the models' ability to withstand adversarial FDIAs without compromising fault detection accuracy. Our results highlight the significant threat posed by adversarial attacks to DLS-based FDIA detection, underscore the necessity for robust cybersecurity measures in smart grids, and demonstrate the effectiveness of adversarial training in enhancing model robustness against adversarial FDIAs.
- Abstract(参考訳): スマートグリッドにおけるFalse Data Injection Attacks(FDIA)の検出に,Deep Learning-based Schemes(DLS)の適用が注目されている。
本稿では, 直列微分リレー(LCDR)において, FDIA検出に使われている既存のDLSを回避できることを示す。
本稿では,LCDRリモート計測に小さな摂動を導入することでDLS脆弱性を悪用するFast Gradient Sign Methodを利用して,FDIAを正統な障害として誤分類し,LCDRの移動を誘発する新たな攻撃フレームワークを提案する。
我々は,多層パーセプトロン,畳み込みニューラルネットワーク,長期記憶ネットワーク,残差ネットワークなど,複数のディープラーニングモデルの堅牢性を評価する。
実験の結果,これらのモデルの性能は良好に向上するが,敵攻撃に対する脆弱性の度合いが高いことが示された。
一部のモデルでは、敵の攻撃の成功率は99.7%を超えている。
この脅威に対処するため,本研究では,障害検出精度を損なうことなく,敵のFDIAに耐えるモデルの能力を大幅に向上する,積極的な防御機構として,敵の訓練を導入する。
本研究は,DLSに基づくFDIA検出に対する敵対的攻撃による重大な脅威を浮き彫りにし,スマートグリッドにおける堅牢なサイバーセキュリティ対策の必要性を浮き彫りにして,対戦型FDIAに対するモデルロバスト性を高めるための対戦型トレーニングの有効性を実証するものである。
関連論文リスト
- Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - usfAD Based Effective Unknown Attack Detection Focused IDS Framework [3.560574387648533]
Internet of Things(IoT)とIndustrial Internet of Things(IIoT)は、サイバー脅威の増加につながっている。
10年以上にわたり、研究者は侵入検知システム(IDS)を開発するための教師付き機械学習技術を模索してきた。
既知のデータセット上でトレーニングされ、テストされたIDSは、ゼロデイまたは未知の攻撃を検出するのに失敗する。
我々は,攻撃の訓練サンプルを必要としない,半教師付き学習に基づくIDSのための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T11:49:57Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。