論文の概要: Adversarial Classification of the Attacks on Smart Grids Using Game
Theory and Deep Learning
- arxiv url: http://arxiv.org/abs/2106.03209v1
- Date: Sun, 6 Jun 2021 18:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:50:55.128652
- Title: Adversarial Classification of the Attacks on Smart Grids Using Game
Theory and Deep Learning
- Title(参考訳): ゲーム理論とディープラーニングを用いたスマートグリッド攻撃の逆分類
- Authors: Kian Hamedani, Lingjia Liu, Jithin Jagannath, Yang (Cindy) Yi
- Abstract要約: 本稿では,攻撃者によるパワー測定における変動を評価するためのゲーム理論的手法を提案する。
ゼロサムゲームは、攻撃者とディフェンダーの間の相互作用をモデル化するために使用される。
- 参考スコア(独自算出の注目度): 27.69899235394942
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Smart grids are vulnerable to cyber-attacks. This paper proposes a
game-theoretic approach to evaluate the variations caused by an attacker on the
power measurements. Adversaries can gain financial benefits through the
manipulation of the meters of smart grids. On the other hand, there is a
defender that tries to maintain the accuracy of the meters. A zero-sum game is
used to model the interactions between the attacker and defender. In this
paper, two different defenders are used and the effectiveness of each defender
in different scenarios is evaluated. Multi-layer perceptrons (MLPs) and
traditional state estimators are the two defenders that are studied in this
paper. The utility of the defender is also investigated in adversary-aware and
adversary-unaware situations. Our simulations suggest that the utility which is
gained by the adversary drops significantly when the MLP is used as the
defender. It will be shown that the utility of the defender is variant in
different scenarios, based on the defender that is being used. In the end, we
will show that this zero-sum game does not yield a pure strategy, and the mixed
strategy of the game is calculated.
- Abstract(参考訳): スマートグリッドはサイバー攻撃に弱い。
本稿では,攻撃者によるパワー測定の変動を評価するゲーム理論的手法を提案する。
広告主はスマートグリッドのメーターを操作することで経済的利益を得ることができる。
一方、メーターの精度を維持しようとするディフェンダーが存在する。
ゼロサムゲームはアタッカーとディフェンダーの相互作用をモデル化するために使用される。
本稿では,2つのディフェンダーを用いて,異なるシナリオにおける各ディフェンダーの有効性を評価する。
マルチ層パーセプトロン(MLP)と従来の状態推定器は,本稿で研究した2つのディフェンダーである。
ディフェンダーの効用は、敵意識及び敵意識のない状況においても検討される。
シミュレーションにより, MLP をディフェンダーとして使用すると, 敵から得られる効用が著しく低下することが示唆された。
ディフェンダーのユーティリティは、使用されているディフェンダーに基づいて、異なるシナリオで変形していることが示される。
最終的に、このゼロサムゲームは純粋な戦略ではなく、ゲームの混合戦略が計算されることを示す。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Counter-Samples: A Stateless Strategy to Neutralize Black Box Adversarial Attacks [2.9815109163161204]
本稿では,ブラックボックス攻撃に対する新たな防御法を提案する。
入力サンプルの衛生化に依存する従来の前処理防御とは異なり、我々の戦略は攻撃プロセス自体に対処する。
我々のアプローチは最先端のブラックボックス攻撃に対して極めて効果的であり、CIFAR-10とImageNetデータセットの双方で既存の防御性能を上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-14T10:59:54Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Adversarial Machine Learning and Defense Game for NextG Signal
Classification with Deep Learning [1.1726528038065764]
NextGシステムは、ユーザ機器の識別、物理層認証、既存ユーザの検出など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。
本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T15:13:03Z) - The Art of Manipulation: Threat of Multi-Step Manipulative Attacks in
Security Games [8.87104231451079]
本稿では,Stackelbergセキュリティゲームにおけるマルチステップマニピュレータ攻撃の問題点について検討する。
巧妙な攻撃者は、攻撃者の行動に関するディフェンダーの学習を誤解させるために、複数の時間ステップで攻撃を組織しようと試みる。
この攻撃操作は最終的に、攻撃者の利益に対する守備者のパトロール戦略に影響を与える。
論文 参考訳(メタデータ) (2022-02-27T18:58:15Z) - Adversarial Online Learning with Variable Plays in the Pursuit-Evasion
Game: Theoretical Foundations and Application in Connected and Automated
Vehicle Cybersecurity [5.9774834479750805]
対戦型・非確率型マルチアームバンディット(MPMAB)は,演奏するアームの数が変動している場合に拡張する。
この作業は、相互接続された輸送システムにおいて、異なる重要な場所をスキャンするために割り当てられたリソースが、時間とともに、環境によって動的に変化するという事実によって動機付けられている。
論文 参考訳(メタデータ) (2021-10-26T23:09:42Z) - Game Theory for Adversarial Attacks and Defenses [0.0]
敵攻撃は、データセットのサンプルに小さなが故意に最悪の摂動を適用することで、敵の入力を生成することができる。
いくつかの敵防衛技術は、モデルの安全性と堅牢性を改善し、攻撃を避けるために開発されている。
論文 参考訳(メタデータ) (2021-10-08T07:38:33Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。