論文の概要: A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems
- arxiv url: http://arxiv.org/abs/2109.06358v1
- Date: Mon, 13 Sep 2021 23:11:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:23:05.158024
- Title: A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems
- Title(参考訳): スマートエネルギーシステムの同時検出における現実的逆攻撃
- Authors: Moein Sabounchi, Jin Wei-Kocsis
- Abstract要約: 本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the advances in computing and sensing, deep learning (DL) has widely
been applied in smart energy systems (SESs). These DL-based solutions have
proved their potentials in improving the effectiveness and adaptiveness of the
control systems. However, in recent years, increasing evidence shows that DL
techniques can be manipulated by adversarial attacks with carefully-crafted
perturbations. Adversarial attacks have been studied in computer vision and
natural language processing. However, there is very limited work focusing on
the adversarial attack deployment and mitigation in energy systems. In this
regard, to better prepare the SESs against potential adversarial attacks, we
propose an innovative adversarial attack model that can practically compromise
dynamical controls of energy system. We also optimize the deployment of the
proposed adversarial attack model by employing deep reinforcement learning (RL)
techniques. In this paper, we present our first-stage work in this direction.
In simulation section, we evaluate the performance of our proposed adversarial
attack model using standard IEEE 9-bus system.
- Abstract(参考訳): コンピューティングとセンシングの進歩により、ディープラーニング(DL)はスマートエネルギーシステム(SES)に広く応用されている。
これらのDLベースのソリューションは、制御システムの有効性と適応性を改善する可能性を示した。
しかし近年, DL技術は, 注意深い摂動を伴う敵の攻撃によって操作できる証拠が増えている。
敵対的攻撃はコンピュータビジョンと自然言語処理で研究されている。
しかし、エネルギーシステムにおける敵の攻撃展開と緩和に焦点を当てた作業は非常に限られている。
そこで本研究では,エネルギーシステムの動的制御を効果的に破ることのできる,新たな攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
本稿では,この方向への第1段階について述べる。
シミュレーション部では,提案する攻撃モデルの性能をieee 9-busシステムを用いて評価する。
関連論文リスト
- A Novel Bifurcation Method for Observation Perturbation Attacks on Reinforcement Learning Agents: Load Altering Attacks on a Cyber Physical Power System [1.7887848708497243]
本研究は,分岐層を用いたグループ差分ロジッツ損失を用いた連続制御のための新しい攻撃手法を提案する。
現実的なスマートエネルギー環境における強力な勾配に基づく攻撃の影響を実証する。
論文 参考訳(メタデータ) (2024-07-06T20:55:24Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Physics-Constrained Backdoor Attacks on Power System Fault Localization [1.1683938179815823]
本研究は,物理に制約されたバックドア毒殺攻撃を提案する。
学習したモデルに検出不能な攻撃信号を埋め込み、対応する信号に遭遇したときのみ攻撃を実行する。
提案した攻撃パイプラインは、他のパワーシステムタスクに容易に一般化できる。
論文 参考訳(メタデータ) (2022-11-07T12:57:26Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。