論文の概要: Adversarial Purification for Data-Driven Power System Event Classifiers
with Diffusion Models
- arxiv url: http://arxiv.org/abs/2311.07110v1
- Date: Mon, 13 Nov 2023 06:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:27:03.571698
- Title: Adversarial Purification for Data-Driven Power System Event Classifiers
with Diffusion Models
- Title(参考訳): 拡散モデルを用いたデータ駆動型イベント分類器の逆浄化
- Authors: Yuanbin Cheng, Koji Yamashita, Jim Follum, Nanpeng Yu
- Abstract要約: ファサー計測ユニット(PMU)のグローバル展開は、電力システムのリアルタイム監視を可能にする。
近年の研究では、機械学習に基づく手法が敵の攻撃に弱いことが示されている。
本稿では,拡散モデルに基づく効果的な対向的浄化手法を提案する。
- 参考スコア(独自算出の注目度): 0.8848340429852071
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The global deployment of the phasor measurement units (PMUs) enables
real-time monitoring of the power system, which has stimulated considerable
research into machine learning-based models for event detection and
classification. However, recent studies reveal that machine learning-based
methods are vulnerable to adversarial attacks, which can fool the event
classifiers by adding small perturbations to the raw PMU data. To mitigate the
threats posed by adversarial attacks, research on defense strategies is
urgently needed. This paper proposes an effective adversarial purification
method based on the diffusion model to counter adversarial attacks on the
machine learning-based power system event classifier. The proposed method
includes two steps: injecting noise into the PMU data; and utilizing a
pre-trained neural network to eliminate the added noise while simultaneously
removing perturbations introduced by the adversarial attacks. The proposed
adversarial purification method significantly increases the accuracy of the
event classifier under adversarial attacks while satisfying the requirements of
real-time operations. In addition, the theoretical analysis reveals that the
proposed diffusion model-based adversarial purification method decreases the
distance between the original and compromised PMU data, which reduces the
impacts of adversarial attacks. The empirical results on a large-scale
real-world PMU dataset validate the effectiveness and computational efficiency
of the proposed adversarial purification method.
- Abstract(参考訳): ファサー計測ユニット(PMU)のグローバル展開により、電力システムのリアルタイムモニタリングが可能となり、イベント検出と分類のための機械学習モデルの研究が盛んに進められている。
しかし、最近の研究では、機械学習に基づく手法は敵攻撃に弱いことが判明しており、生のPMUデータに小さな摂動を加えることで、イベント分類器を騙すことができる。
敵攻撃による脅威を軽減するためには、防衛戦略の研究が急務である。
本稿では,機械学習に基づく電力系統イベント分類器の敵意攻撃に対する拡散モデルに基づく効果的な敵意浄化手法を提案する。
提案手法は、PMUデータにノイズを注入する2つのステップと、事前学習されたニューラルネットワークを用いて、敵攻撃によってもたらされる摂動を同時に除去する2つのステップを含む。
提案手法は,リアルタイム操作の要件を満たしながら,敵攻撃時の事象分類器の精度を大幅に向上させる。
さらに,提案手法は, 拡散モデルに基づく逆方向浄化法により, 元のPMUデータと妥協したPMUデータとの距離を低減し, 逆方向攻撃の影響を低減する。
大規模実世界のPMUデータセットにおける実験結果は,提案手法の有効性と計算効率を検証した。
関連論文リスト
- DisDet: Exploring Detectability of Backdoor Attack on Diffusion Models [23.502100653704446]
いくつかの先駆的な研究は、バックドア攻撃に対する拡散モデルの脆弱性を示している。
本稿では,バックドア拡散モデルに対する有毒音入力の検出可能性について検討する。
有害な入力ノイズを効果的に識別できる低コストトリガー検出機構を提案する。
次に、攻撃側から同じ問題を研究するためにさらに一歩踏み出し、無意味なトリガーを学習できるバックドア攻撃戦略を提案します。
論文 参考訳(メタデータ) (2024-02-05T05:46:31Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - TFDPM: Attack detection for cyber-physical systems with diffusion
probabilistic models [10.389972581904999]
CPSにおける攻撃検出タスクの一般的なフレームワークであるTFDPMを提案する。
履歴データから時間パターンと特徴パターンを同時に抽出する。
ノイズスケジューリングネットワークは、検出速度を3倍に向上させる。
論文 参考訳(メタデータ) (2021-12-20T13:13:29Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。