論文の概要: Adversarial Training for a Continuous Robustness Control Problem in
Power Systems
- arxiv url: http://arxiv.org/abs/2012.11390v3
- Date: Fri, 16 Apr 2021 12:05:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 12:59:30.268795
- Title: Adversarial Training for a Continuous Robustness Control Problem in
Power Systems
- Title(参考訳): 電力系統における連続的ロバストネス制御問題の逆訓練
- Authors: Lo\"ic Omnes, Antoine Marot, Benjamin Donnot
- Abstract要約: 今後のサイバー物理パワーシステムのコントローラ設計において、堅牢性を注入するための新たな敵対的トレーニングアプローチを提案します。
敵フレームワークをモデル化し,固定された対向ポリシーの実装を提案し,l2rpn(learning to run a power network)環境上でテストする。
本研究は,L2RPNコンペティションのロバスト性トラックから,提案したトレーニングエージェントの結果を分析した。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new adversarial training approach for injecting robustness when
designing controllers for upcoming cyber-physical power systems. Previous
approaches relying deeply on simulations are not able to cope with the rising
complexity and are too costly when used online in terms of computation budget.
In comparison, our method proves to be computationally efficient online while
displaying useful robustness properties. To do so we model an adversarial
framework, propose the implementation of a fixed opponent policy and test it on
a L2RPN (Learning to Run a Power Network) environment. This environment is a
synthetic but realistic modeling of a cyber-physical system accounting for one
third of the IEEE 118 grid. Using adversarial testing, we analyze the results
of submitted trained agents from the robustness track of the L2RPN competition.
We then further assess the performance of these agents in regards to the
continuous N-1 problem through tailored evaluation metrics. We discover that
some agents trained in an adversarial way demonstrate interesting preventive
behaviors in that regard, which we discuss.
- Abstract(参考訳): 本稿では,次世代のサイバー物理電力システム用コントローラの設計において,ロバスト性を注入する新たな対角訓練手法を提案する。
シミュレーションに深く依存する従来のアプローチでは、複雑さの増大に対処できず、計算予算の面でオンラインでの使用にはコストがかかりすぎる。
これに対し,本手法は有効なロバスト性を示しながら,オンライン上で計算効率がよいことを示す。
そこで我々は、敵のフレームワークをモデル化し、固定された反対ポリシーの実装を提案し、L2RPN(Learning to Run a Power Network)環境でテストする。
この環境は、IEEE 118グリッドの3分の1を占めるサイバー物理システムの合成だが現実的なモデリングである。
本研究は,L2RPNコンペティションのロバスト性トラックから,提案したトレーニングエージェントの結果を分析した。
さらに, 評価指標の調整により, 連続N-1問題に対するこれらのエージェントの性能を更に評価する。
敵対的な方法で訓練されたエージェントが、その点で興味深い予防行動を示すことがわかりました。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - How Robust Are Energy-Based Models Trained With Equilibrium Propagation? [4.374837991804085]
敵の訓練は、敵の攻撃に対する現在の最先端の防御である。
クリーンな入力に対するモデルの精度を低くし、計算コストも高く、自然騒音に対する堅牢性も低い。
対照的に、エネルギーベースモデル(EBM)は各層から前の層へのフィードバック接続を組み込んでおり、繰り返し発生する深層構造をもたらす。
論文 参考訳(メタデータ) (2024-01-21T16:55:40Z) - Investigating Robustness in Cyber-Physical Systems: Specification-Centric Analysis in the face of System Deviations [8.8690305802668]
サイバー物理システム(CPS)の重要属性は堅牢性であり、安全に運用する能力を示している。
本稿では,特定のシステム要件を満たす上でのコントローラの有効性を特徴付ける,仕様に基づく新しいロバスト性を提案する。
本稿では, 微妙な堅牢性違反を識別するための2層シミュレーションに基づく解析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T16:44:43Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Learning Connectivity-Maximizing Network Configurations [123.01665966032014]
本稿では、専門家からコミュニケーションエージェントを配置することを学ぶ畳み込みニューラルネットワーク(CNN)を用いた教師あり学習手法を提案する。
我々は,標準ライントポロジやリングトポロジ,ランダムに生成された105万件のテストケース,トレーニング中に見えない大規模なチームについて,CNNのパフォーマンスを実証した。
トレーニング後,本システムは10~20名のエージェントの最適化手法よりも2桁高速な接続構成を生成する。
論文 参考訳(メタデータ) (2021-12-14T18:59:01Z) - Improving Robustness of Reinforcement Learning for Power System Control
with Adversarial Training [71.7750435554693]
電力系統制御のために提案された最先端のRLエージェントが敵攻撃に対して脆弱であることを示す。
具体的には、敵のマルコフ決定プロセスを用いて攻撃方針を学習し、攻撃の有効性を実証する。
本稿では,RLエージェントの攻撃に対する堅牢性を高め,実行不可能な運用上の決定を回避するために,敵の訓練を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-18T00:50:34Z) - Continual Competitive Memory: A Neural System for Online Task-Free
Lifelong Learning [91.3755431537592]
我々は,教師なし学習,連続競合記憶(CCM)の新たな形態を提案する。
結果として得られる神経系は、オンライン連続分類問題において破滅的な忘れと戦う効果的なアプローチを提供する。
提案したCCMシステムは,他の競合学習ニューラルモデルよりも優れるだけでなく,最新かつ最先端の学習アプローチと競合する性能が得られることを実証する。
論文 参考訳(メタデータ) (2021-06-24T20:12:17Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Automated Adversary Emulation for Cyber-Physical Systems via
Reinforcement Learning [4.763175424744536]
我々は,サイバー物理システムに対する敵エミュレーションに対するドメイン認識の自動化手法を開発した。
我々は、マルコフ決定プロセス(MDP)モデルを定式化し、ハイブリッドアタックグラフ上で最適なアタックシーケンスを決定する。
モデルベースおよびモデルフリー強化学習(RL)法を用いて,離散連続型MDPをトラクタブルな方法で解く。
論文 参考訳(メタデータ) (2020-11-09T18:44:29Z) - On the Generalization Properties of Adversarial Training [21.79888306754263]
本稿では,汎用的対数学習アルゴリズムの一般化性能について検討する。
滑らかさとL1のペナル化がモデルの対向的堅牢性をどのように改善するかを示すために、一連の数値的研究が行われた。
論文 参考訳(メタデータ) (2020-08-15T02:32:09Z) - Falsification-Based Robust Adversarial Reinforcement Learning [13.467693018395863]
Falsification-based RARL (FRARL) は、対人学習における時間論理のファルシフィケーションを統合するための最初の汎用フレームワークである。
実験結果から, ファルシフィケーションをベースとした対向法で訓練したポリシーは, より一般化され, テストシナリオにおける安全仕様の違反が少なくなることが示された。
論文 参考訳(メタデータ) (2020-07-01T18:32:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。