論文の概要: Continual Adversarial Reinforcement Learning (CARL) of False Data Injection detection: forgetting and explainability
- arxiv url: http://arxiv.org/abs/2411.10367v1
- Date: Fri, 15 Nov 2024 17:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:39:04.666427
- Title: Continual Adversarial Reinforcement Learning (CARL) of False Data Injection detection: forgetting and explainability
- Title(参考訳): 偽データ注入検出の連続的逆相関強化学習(CARL:Continuous Adversarial Reinforcement Learning)--忘れと説明可能性
- Authors: Pooja Aslami, Kejun Chen, Timothy M. Hansen, Malik Hassanaly,
- Abstract要約: スマートインバータに対する偽データインジェクション攻撃(FDIA)は、再生可能エネルギー生産の増加に関連する懸念が高まっている。
我々は,データに基づくFDIA検出手法が,影響のある,ステルス的な敵の例に対して脆弱であることを示す。
本稿では,CARL(Continuous Adversarial RL)アプローチによるデータに基づく検出訓練に,このような逆例を含めることを提案する。
- 参考スコア(独自算出の注目度): 0.9285370431584181
- License:
- Abstract: False data injection attacks (FDIAs) on smart inverters are a growing concern linked to increased renewable energy production. While data-based FDIA detection methods are also actively developed, we show that they remain vulnerable to impactful and stealthy adversarial examples that can be crafted using Reinforcement Learning (RL). We propose to include such adversarial examples in data-based detection training procedure via a continual adversarial RL (CARL) approach. This way, one can pinpoint the deficiencies of data-based detection, thereby offering explainability during their incremental improvement. We show that a continual learning implementation is subject to catastrophic forgetting, and additionally show that forgetting can be addressed by employing a joint training strategy on all generated FDIA scenarios.
- Abstract(参考訳): スマートインバータに対する偽データインジェクション攻撃(FDIA)は、再生可能エネルギー生産の増加に関連する懸念が高まっている。
データに基づくFDIA検出手法も活発に開発されているが、Reinforcement Learning (RL) を用いて構築できる影響のある、ステルス的な敵例に対して脆弱なままであることを示す。
本稿では,CARL(Continuous Adversarial RL)アプローチによるデータに基づく検出訓練に,このような逆例を含めることを提案する。
これにより、データベースの検出の欠陥を特定でき、インクリメンタルな改善の間に説明責任を提供することができる。
連続学習の実装は破滅的な忘れ込みの対象となることを示し、さらに、生成された全てのFDIAシナリオに共同トレーニング戦略を適用することで、忘れることに対処できることを示す。
関連論文リスト
- Deep Learning for Network Anomaly Detection under Data Contamination: Evaluating Robustness and Mitigating Performance Degradation [0.0]
ディープラーニング(DL)は、サイバーセキュリティのためのネットワーク異常検出(NAD)において重要なツールとして登場した。
異常検出のためのDLモデルはデータから特徴や学習パターンを抽出するのに優れているが、データ汚染には弱い。
本研究では,データ汚染に対する6つの教師なしDLアルゴリズムのロバスト性を評価する。
論文 参考訳(メタデータ) (2024-07-11T19:47:37Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Can Active Sampling Reduce Causal Confusion in Offline Reinforcement
Learning? [58.942118128503104]
因果的混乱(英: Causal confusion)とは、エージェントがデータ中の不完全な急激な相関を反映するポリシーを学ぶ現象である。
この現象は特にロボット工学などの領域で顕著である。
本稿では,オフライン強化学習における因果的混乱について検討する。
論文 参考訳(メタデータ) (2023-12-28T17:54:56Z) - Mitigating Data Injection Attacks on Federated Learning [20.24380409762923]
フェデレートラーニング(Federated Learning)は、複数のエンティティがデータを使ってモデルを協調的にトレーニングすることを可能にするテクニックである。
その利点にもかかわらず、フェデレートされた学習は偽のデータ注入攻撃の影響を受けやすい。
本稿では,フェデレート学習システムにおけるデータインジェクション攻撃の検出と緩和を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:26:31Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Causal Deep Reinforcement Learning Using Observational Data [11.790171301328158]
深部強化学習(DRL)における2つの解答法を提案する。
提案手法はまず, 因果推論法に基づいて異なる試料の重要度を算出し, 損失関数に対する異なる試料の影響を調整する。
本手法の有効性を実証し,実験的に検証する。
論文 参考訳(メタデータ) (2022-11-28T14:34:39Z) - Adversarial Targeted Forgetting in Regularization and Generative Based
Continual Learning Models [2.8021833233819486]
継続的(あるいはインクリメンタル)な学習アプローチは、その後のバッチやストリーミングデータから追加の知識やタスクを学ぶ必要がある場合に使用される。
知的敵は、既存の知識を時間とともに保持する連続学習アルゴリズムの能力を活用できることを示す。
敵は、そのタスクのテストインスタンスに慎重に設計されたバックドアサンプルを挿入することで、任意のタスクについて「偽のメモリ」を作成できることを示します。
論文 参考訳(メタデータ) (2021-02-16T18:45:01Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。