論文の概要: Physics-Constrained Backdoor Attacks on Power System Fault Localization
- arxiv url: http://arxiv.org/abs/2211.04445v1
- Date: Mon, 7 Nov 2022 12:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 16:02:45.327141
- Title: Physics-Constrained Backdoor Attacks on Power System Fault Localization
- Title(参考訳): 電力系統故障定位に対する物理制約バックドア攻撃
- Authors: Jianing Bai, Ren Wang, Zuyi Li
- Abstract要約: 本研究は,物理に制約されたバックドア毒殺攻撃を提案する。
学習したモデルに検出不能な攻撃信号を埋め込み、対応する信号に遭遇したときのみ攻撃を実行する。
提案した攻撃パイプラインは、他のパワーシステムタスクに容易に一般化できる。
- 参考スコア(独自算出の注目度): 1.1683938179815823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advances in deep learning (DL) techniques have the potential to deliver
transformative technological breakthroughs to numerous complex tasks in modern
power systems that suffer from increasing uncertainty and nonlinearity.
However, the vulnerability of DL has yet to be thoroughly explored in power
system tasks under various physical constraints. This work, for the first time,
proposes a novel physics-constrained backdoor poisoning attack, which embeds
the undetectable attack signal into the learned model and only performs the
attack when it encounters the corresponding signal. The paper illustrates the
proposed attack on the real-time fault line localization application.
Furthermore, the simulation results on the 68-bus power system demonstrate that
DL-based fault line localization methods are not robust to our proposed attack,
indicating that backdoor poisoning attacks pose real threats to DL
implementations in power systems. The proposed attack pipeline can be easily
generalized to other power system tasks.
- Abstract(参考訳): ディープラーニング(DL)技術の進歩は、不確実性や非線形性の増加に苦しむ現代の電力システムにおいて、多くの複雑なタスクに革新的な技術的ブレークスルーをもたらす可能性がある。
しかし、DLの脆弱性は、様々な物理的制約の下での電力系統タスクにおいて、まだ徹底的に調査されていない。
本研究は, 新たに物理制約されたバックドア中毒攻撃を提案し, 検出不能な攻撃信号を学習モデルに埋め込み, 対応する信号に遭遇した場合のみ攻撃を行う。
本論文は,リアルタイム故障ラインローカライズアプリケーションに対する攻撃手法について述べる。
さらに,68バス電力系統のシミュレーション結果から,dlベースの故障ライン位置推定手法が提案する攻撃に対して頑健ではないことを証明し,バックドア中毒攻撃が電力系統におけるdl実装に真の脅威をもたらすことを示唆した。
提案する攻撃パイプラインは他の電力系統タスクに容易に一般化できる。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Investigation of Multi-stage Attack and Defense Simulation for Data Synthesis [2.479074862022315]
本研究では,電力網における多段階サイバー攻撃の合成データを生成するモデルを提案する。
攻撃者のステップのシーケンスをモデル化するためにアタックツリーを使用し、ディフェンダーのアクションを組み込むゲーム理論のアプローチを使用する。
論文 参考訳(メタデータ) (2023-12-21T09:54:18Z) - Physics-Informed Convolutional Autoencoder for Cyber Anomaly Detection
in Power Distribution Grids [0.0]
本稿では,物理インフォームド・コンボリューション・オートエンコーダ(PIConvAE)を提案する。
提案モデルは、Kirchhoffの法則を適用して、ニューラルネットワークの損失関数に物理原理を統合する。
論文 参考訳(メタデータ) (2023-12-08T00:05:13Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems [0.0]
本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
論文 参考訳(メタデータ) (2021-09-13T23:11:56Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。