論文の概要: Learning to Attack Powergrids with DERs
- arxiv url: http://arxiv.org/abs/2204.11352v1
- Date: Sun, 24 Apr 2022 20:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:45:53.465941
- Title: Learning to Attack Powergrids with DERs
- Title(参考訳): dersによるpowergrids攻撃の学習
- Authors: Eric MSP Veith, Nils Wenninghoff, Stephan Balduin, Thomas Wolgast,
Sebastian Lehnhoff
- Abstract要約: 本稿では, よく理解されたシナリオに基づくリアクティブ・パワー・アタックについて述べる。
独立エージェントは電力グリッドの動力学を学習することができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the past years, power grids have become a valuable target for
cyber-attacks. Especially the attacks on the Ukrainian power grid has sparked
numerous research into possible attack vectors, their extent, and possible
mitigations. However, many fail to consider realistic scenarios in which time
series are incorporated into simulations to reflect the transient behaviour of
independent generators and consumers. Moreover, very few consider the limited
sensory input of a potential attacker. In this paper, we describe a reactive
power attack based on a well-understood scenario. We show that independent
agents can learn to use the dynamics of the power grid against it and that the
attack works even in the face of other generator and consumer nodes acting
independently.
- Abstract(参考訳): 近年、電力網はサイバー攻撃にとって貴重な標的となっている。
特にウクライナの電力網に対する攻撃は、攻撃ベクトル、その範囲、緩和の可能性に関する多くの研究を引き起こしている。
しかし、多くの場合、時系列が独立したジェネレータやコンシューマのトランジェントな振る舞いを反映したシミュレーションに組み込まれるような現実的なシナリオは考えていない。
さらに、潜在的な攻撃者の感覚入力が限られていると考えるものはほとんどない。
本稿では,よく理解されたシナリオに基づくリアクティブパワーアタックについて述べる。
独立エージェントがそれに対する電力グリッドのダイナミクスを学習できることと、攻撃が他のジェネレータやコンシューマノードが独立して動作している場合でも機能することを示します。
関連論文リスト
- A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [60.42408040267338]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - ROOM: Adversarial Machine Learning Attacks Under Real-Time Constraints [3.042299765078767]
オフラインコンポーネントがオンラインアルゴリズムのウォームアップにどのように役立つのかを示す。
本稿では,このようなリアルタイム対向攻撃を支援するために,リアルタイム制約下で対向雑音をどうやって生成するかという問題を紹介する。
論文 参考訳(メタデータ) (2022-01-05T14:03:26Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Sponge Examples: Energy-Latency Attacks on Neural Networks [27.797657094947017]
エネルギー消費や決定遅延が重要となるニューラルネットワークに対して,新たな脅威ベクトルを導入する。
この攻撃の2つのバリエーションを、確立されたビジョンと言語モデルに実装し、エネルギー消費量を10~200倍に増やした。
私たちの攻撃は、自動運転車の認識など、ネットワークがリアルタイムに重要なパフォーマンスを持つ決定を遅らせるのにも使用できます。
論文 参考訳(メタデータ) (2020-06-05T14:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。