論文の概要: Learning to Attack Powergrids with DERs
- arxiv url: http://arxiv.org/abs/2204.11352v1
- Date: Sun, 24 Apr 2022 20:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:45:53.465941
- Title: Learning to Attack Powergrids with DERs
- Title(参考訳): dersによるpowergrids攻撃の学習
- Authors: Eric MSP Veith, Nils Wenninghoff, Stephan Balduin, Thomas Wolgast,
Sebastian Lehnhoff
- Abstract要約: 本稿では, よく理解されたシナリオに基づくリアクティブ・パワー・アタックについて述べる。
独立エージェントは電力グリッドの動力学を学習することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the past years, power grids have become a valuable target for
cyber-attacks. Especially the attacks on the Ukrainian power grid has sparked
numerous research into possible attack vectors, their extent, and possible
mitigations. However, many fail to consider realistic scenarios in which time
series are incorporated into simulations to reflect the transient behaviour of
independent generators and consumers. Moreover, very few consider the limited
sensory input of a potential attacker. In this paper, we describe a reactive
power attack based on a well-understood scenario. We show that independent
agents can learn to use the dynamics of the power grid against it and that the
attack works even in the face of other generator and consumer nodes acting
independently.
- Abstract(参考訳): 近年、電力網はサイバー攻撃にとって貴重な標的となっている。
特にウクライナの電力網に対する攻撃は、攻撃ベクトル、その範囲、緩和の可能性に関する多くの研究を引き起こしている。
しかし、多くの場合、時系列が独立したジェネレータやコンシューマのトランジェントな振る舞いを反映したシミュレーションに組み込まれるような現実的なシナリオは考えていない。
さらに、潜在的な攻撃者の感覚入力が限られていると考えるものはほとんどない。
本稿では,よく理解されたシナリオに基づくリアクティブパワーアタックについて述べる。
独立エージェントがそれに対する電力グリッドのダイナミクスを学習できることと、攻撃が他のジェネレータやコンシューマノードが独立して動作している場合でも機能することを示します。
関連論文リスト
- Robust Defense Against Extreme Grid Events Using Dual-Policy Reinforcement Learning Agents [0.0]
強化学習(RL)エージェントは電力グリッドを管理する強力なツールである。
大量のデータを使ってアクションを通知し、フィードバックとして報酬を受け取り、システムに対して好意的な反応を学習する。
この能力は、RL剤の需要が増加している電力ネットワークの脱炭に特に有用である。
論文 参考訳(メタデータ) (2024-11-17T21:30:48Z) - CLIP-Guided Generative Networks for Transferable Targeted Adversarial Attacks [52.29186466633699]
トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
textitsingle-target 生成攻撃は、高い転送可能な摂動を生成するために、各ターゲットクラスのジェネレータを訓練する。
textbfCLIP-guided textbfGenerative textbfNetwork with textbfCross-attention module (CGNC) to enhance multi-target attack。
論文 参考訳(メタデータ) (2024-07-14T12:30:32Z) - Investigation of Multi-stage Attack and Defense Simulation for Data Synthesis [2.479074862022315]
本研究では,電力網における多段階サイバー攻撃の合成データを生成するモデルを提案する。
攻撃者のステップのシーケンスをモデル化するためにアタックツリーを使用し、ディフェンダーのアクションを組み込むゲーム理論のアプローチを使用する。
論文 参考訳(メタデータ) (2023-12-21T09:54:18Z) - A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。