論文の概要: A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems
- arxiv url: http://arxiv.org/abs/2109.06358v1
- Date: Mon, 13 Sep 2021 23:11:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:23:05.158024
- Title: A Practical Adversarial Attack on Contingency Detection of Smart Energy
Systems
- Title(参考訳): スマートエネルギーシステムの同時検出における現実的逆攻撃
- Authors: Moein Sabounchi, Jin Wei-Kocsis
- Abstract要約: 本稿では,エネルギーシステムの動的制御を実質的に損なうことのできる,革新的な敵攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the advances in computing and sensing, deep learning (DL) has widely
been applied in smart energy systems (SESs). These DL-based solutions have
proved their potentials in improving the effectiveness and adaptiveness of the
control systems. However, in recent years, increasing evidence shows that DL
techniques can be manipulated by adversarial attacks with carefully-crafted
perturbations. Adversarial attacks have been studied in computer vision and
natural language processing. However, there is very limited work focusing on
the adversarial attack deployment and mitigation in energy systems. In this
regard, to better prepare the SESs against potential adversarial attacks, we
propose an innovative adversarial attack model that can practically compromise
dynamical controls of energy system. We also optimize the deployment of the
proposed adversarial attack model by employing deep reinforcement learning (RL)
techniques. In this paper, we present our first-stage work in this direction.
In simulation section, we evaluate the performance of our proposed adversarial
attack model using standard IEEE 9-bus system.
- Abstract(参考訳): コンピューティングとセンシングの進歩により、ディープラーニング(DL)はスマートエネルギーシステム(SES)に広く応用されている。
これらのDLベースのソリューションは、制御システムの有効性と適応性を改善する可能性を示した。
しかし近年, DL技術は, 注意深い摂動を伴う敵の攻撃によって操作できる証拠が増えている。
敵対的攻撃はコンピュータビジョンと自然言語処理で研究されている。
しかし、エネルギーシステムにおける敵の攻撃展開と緩和に焦点を当てた作業は非常に限られている。
そこで本研究では,エネルギーシステムの動的制御を効果的に破ることのできる,新たな攻撃モデルを提案する。
また、深層強化学習(RL)技術を用いて、提案した敵攻撃モデルの展開を最適化する。
本稿では,この方向への第1段階について述べる。
シミュレーション部では,提案する攻撃モデルの性能をieee 9-busシステムを用いて評価する。
関連論文リスト
- Embodied Adversarial Attack: A Dynamic Robust Physical Attack in
Autonomous Driving [15.427248934229233]
Embodied Adversarial Attack (EAA) は、インボディード・インテリジェンス(英語版)のパラダイムである知覚-決定-制御(英語版)を採用することを目的としている。
EAAは、物理的攻撃を実施するために、レーザーを高度に操作可能な媒体として採用し、さらに強化学習で攻撃エージェントを訓練し、最良の攻撃戦略を瞬時に決定できるようにする。
複雑な環境下での手法の有効性を検証した実験は多種多様である。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Deep Reinforcement Learning for Cyber System Defense under Dynamic
Adversarial Uncertainties [5.78419291062552]
本稿では,データ駆動型深層強化学習フレームワークを提案する。
動的防御最適化問題は、異なる種類の敵に対する複数の保護姿勢で定式化される。
論文 参考訳(メタデータ) (2023-02-03T08:33:33Z) - Physics-Constrained Backdoor Attacks on Power System Fault Localization [1.1683938179815823]
本研究は,物理に制約されたバックドア毒殺攻撃を提案する。
学習したモデルに検出不能な攻撃信号を埋め込み、対応する信号に遭遇したときのみ攻撃を実行する。
提案した攻撃パイプラインは、他のパワーシステムタスクに容易に一般化できる。
論文 参考訳(メタデータ) (2022-11-07T12:57:26Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - A Secure Learning Control Strategy via Dynamic Camouflaging for Unknown
Dynamical Systems under Attacks [0.0]
本稿では、未知の線形時間不変サイバー物理システム(CPS)に対するセキュア強化学習(RL)に基づく制御手法を提案する。
本研究では,設計者による学習の探索段階において,攻撃者が動的モデルについて学習する攻撃シナリオについて考察する。
本稿では,動的カモフラージュに基づく攻撃耐性強化学習(ARRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-01T00:34:38Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。