論文の概要: A Stream Learning Approach for Real-Time Identification of False Data
Injection Attacks in Cyber-Physical Power Systems
- arxiv url: http://arxiv.org/abs/2210.06729v1
- Date: Thu, 13 Oct 2022 04:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 15:57:47.977702
- Title: A Stream Learning Approach for Real-Time Identification of False Data
Injection Attacks in Cyber-Physical Power Systems
- Title(参考訳): サイバー物理電力系統における偽データ注入攻撃のリアルタイム同定のためのストリーム学習手法
- Authors: Ehsan Hallaji, Roozbeh Razavi-Far, Meng Wang, Mehrdad Saif, Bruce
Fardanesh
- Abstract要約: 提案フレームワークは,偽データインジェクション攻撃を動的に検出し,分類する。
取得した情報を用いて制御信号を検索する。
このフレームワークは、セントラル・ニューヨーク・パワー・システムから取得した実世界のデータに基づいて評価されている。
- 参考スコア(独自算出の注目度): 11.867912248195543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel data-driven framework to aid in system state
estimation when the power system is under unobservable false data injection
attacks. The proposed framework dynamically detects and classifies false data
injection attacks. Then, it retrieves the control signal using the acquired
information. This process is accomplished in three main modules, with novel
designs, for detection, classification, and control signal retrieval. The
detection module monitors historical changes in phasor measurements and
captures any deviation pattern caused by an attack on a complex plane. This
approach can help to reveal characteristics of the attacks including the
direction, magnitude, and ratio of the injected false data. Using this
information, the signal retrieval module can easily recover the original
control signal and remove the injected false data. Further information
regarding the attack type can be obtained through the classifier module. The
proposed ensemble learner is compatible with harsh learning conditions
including the lack of labeled data, concept drift, concept evolution, recurring
classes, and independence from external updates. The proposed novel classifier
can dynamically learn from data and classify attacks under all these harsh
learning conditions. The introduced framework is evaluated w.r.t. real-world
data captured from the Central New York Power System. The obtained results
indicate the efficacy and stability of the proposed framework.
- Abstract(参考訳): 本稿では,電力系統が観測不能な偽データ注入攻撃を受ける場合のシステム状態推定を支援する新しいデータ駆動フレームワークを提案する。
提案フレームワークは偽データインジェクション攻撃を動的に検出・分類する。
そして、取得した情報を用いて制御信号を取得する。
このプロセスは、新しい設計、検出、分類、制御信号検索の3つの主要なモジュールで実現されている。
検出モジュールは、ファサー測定の履歴変化を監視し、複雑な平面への攻撃によって生じる偏差パターンをキャプチャする。
このアプローチは、注入された偽データの方向、大きさ、比率を含む攻撃の特徴を明らかにするのに役立つ。
この情報を用いて、信号検索モジュールは、元の制御信号を容易に回収し、注入された偽データを除去することができる。
攻撃型に関するさらなる情報は、分類モジュールを介して得ることができる。
提案するアンサンブル学習者は,ラベル付きデータの欠如,概念ドリフト,概念進化,繰り返しクラス,外部更新からの独立など,厳しい学習条件に適合する。
提案手法はデータから動的に学習し,これらの厳しい学習条件下で攻撃を分類する。
導入されたフレームワークは、ニューヨーク中央電力システムから取得したw.r.t.実世界データを評価する。
その結果,提案手法の有効性と安定性が示唆された。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - An Adversarial Approach to Evaluating the Robustness of Event Identification Models [12.862865254507179]
本稿では,事象分類の特徴を抽出する物理に基づくモーダル分解法について考察する。
得られた分類器は、その堅牢性を評価するために、逆アルゴリズムに対してテストされる。
論文 参考訳(メタデータ) (2024-02-19T18:11:37Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Mitigating Data Injection Attacks on Federated Learning [20.24380409762923]
フェデレートラーニング(Federated Learning)は、複数のエンティティがデータを使ってモデルを協調的にトレーニングすることを可能にするテクニックである。
その利点にもかかわらず、フェデレートされた学習は偽のデータ注入攻撃の影響を受けやすい。
本稿では,フェデレート学習システムにおけるデータインジェクション攻撃の検出と緩和を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:26:31Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Online Dictionary Learning Based Fault and Cyber Attack Detection for
Power Systems [4.657875410615595]
本稿では,ストリームデータマイニング分類器を活用することで,イベント検出と侵入検出の問題に対処する。
まず、ラベルのないデータから高レベルな特徴を学習して辞書を構築する。
そして、ラベル付きデータは、学習した辞書原子の疎線形結合として表現される。
我々は、これらの余分なコードを利用して、オンライン分類器と効率的な変更検出器を訓練する。
論文 参考訳(メタデータ) (2021-08-24T23:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。