論文の概要: Adversarial Purification for Data-Driven Power System Event Classifiers
with Diffusion Models
- arxiv url: http://arxiv.org/abs/2311.07110v1
- Date: Mon, 13 Nov 2023 06:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:27:03.571698
- Title: Adversarial Purification for Data-Driven Power System Event Classifiers
with Diffusion Models
- Title(参考訳): 拡散モデルを用いたデータ駆動型イベント分類器の逆浄化
- Authors: Yuanbin Cheng, Koji Yamashita, Jim Follum, Nanpeng Yu
- Abstract要約: ファサー計測ユニット(PMU)のグローバル展開は、電力システムのリアルタイム監視を可能にする。
近年の研究では、機械学習に基づく手法が敵の攻撃に弱いことが示されている。
本稿では,拡散モデルに基づく効果的な対向的浄化手法を提案する。
- 参考スコア(独自算出の注目度): 0.8848340429852071
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The global deployment of the phasor measurement units (PMUs) enables
real-time monitoring of the power system, which has stimulated considerable
research into machine learning-based models for event detection and
classification. However, recent studies reveal that machine learning-based
methods are vulnerable to adversarial attacks, which can fool the event
classifiers by adding small perturbations to the raw PMU data. To mitigate the
threats posed by adversarial attacks, research on defense strategies is
urgently needed. This paper proposes an effective adversarial purification
method based on the diffusion model to counter adversarial attacks on the
machine learning-based power system event classifier. The proposed method
includes two steps: injecting noise into the PMU data; and utilizing a
pre-trained neural network to eliminate the added noise while simultaneously
removing perturbations introduced by the adversarial attacks. The proposed
adversarial purification method significantly increases the accuracy of the
event classifier under adversarial attacks while satisfying the requirements of
real-time operations. In addition, the theoretical analysis reveals that the
proposed diffusion model-based adversarial purification method decreases the
distance between the original and compromised PMU data, which reduces the
impacts of adversarial attacks. The empirical results on a large-scale
real-world PMU dataset validate the effectiveness and computational efficiency
of the proposed adversarial purification method.
- Abstract(参考訳): ファサー計測ユニット(PMU)のグローバル展開により、電力システムのリアルタイムモニタリングが可能となり、イベント検出と分類のための機械学習モデルの研究が盛んに進められている。
しかし、最近の研究では、機械学習に基づく手法は敵攻撃に弱いことが判明しており、生のPMUデータに小さな摂動を加えることで、イベント分類器を騙すことができる。
敵攻撃による脅威を軽減するためには、防衛戦略の研究が急務である。
本稿では,機械学習に基づく電力系統イベント分類器の敵意攻撃に対する拡散モデルに基づく効果的な敵意浄化手法を提案する。
提案手法は、PMUデータにノイズを注入する2つのステップと、事前学習されたニューラルネットワークを用いて、敵攻撃によってもたらされる摂動を同時に除去する2つのステップを含む。
提案手法は,リアルタイム操作の要件を満たしながら,敵攻撃時の事象分類器の精度を大幅に向上させる。
さらに,提案手法は, 拡散モデルに基づく逆方向浄化法により, 元のPMUデータと妥協したPMUデータとの距離を低減し, 逆方向攻撃の影響を低減する。
大規模実世界のPMUデータセットにおける実験結果は,提案手法の有効性と計算効率を検証した。
関連論文リスト
- Correlation Analysis of Adversarial Attack in Time Series Classification [6.117704456424016]
本研究では,時系列分類モデルの攻撃に対する脆弱性について検討した。
攻撃の有効性を高めるため、正規化技術とノイズ導入が示されている。
世界情報を優先するように設計されたモデルは、敵の操作に対する抵抗が大きいことが判明した。
論文 参考訳(メタデータ) (2024-08-21T01:11:32Z) - Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Diffusion-based Adversarial Purification for Intrusion Detection [0.6990493129893112]
不正な摂動はMLモデルを誤解させ、攻撃者が検出を回避したり、誤った警告をトリガーしたりすることを可能にする。
敵の浄化は、特に有望な結果を示す拡散モデルによって、説得力のある解決策として現れてきた。
本稿では,ネットワーク侵入検出における逆例の浄化における拡散モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-06-25T14:48:28Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Enhancing Adversarial Robustness via Score-Based Optimization [22.87882885963586]
敵対的攻撃は、わずかな摂動を導入することによって、ディープニューラルネットワーク分類器を誤認する可能性がある。
ScoreOptと呼ばれる新しい対向防御方式を導入し、テスト時に対向サンプルを最適化する。
実験の結果,本手法は性能とロバスト性の両方において,既存の敵防御よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T03:59:42Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - TFDPM: Attack detection for cyber-physical systems with diffusion
probabilistic models [10.389972581904999]
CPSにおける攻撃検出タスクの一般的なフレームワークであるTFDPMを提案する。
履歴データから時間パターンと特徴パターンを同時に抽出する。
ノイズスケジューリングネットワークは、検出速度を3倍に向上させる。
論文 参考訳(メタデータ) (2021-12-20T13:13:29Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。