論文の概要: Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS
- arxiv url: http://arxiv.org/abs/2405.02989v1
- Date: Sun, 5 May 2024 16:24:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 15:33:57.866373
- Title: Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS
- Title(参考訳): 共同毒殺と侵入攻撃に対する防御 : DERMSを事例として
- Authors: Zain ul Abdeen, Padmaksha Roy, Ahmad Al-Tawaha, Rouxi Jia, Laura Freeman, Peter Beling, Chen-Ching Liu, Alberto Sangiovanni-Vincentelli, Ming Jin,
- Abstract要約: IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
- 参考スコア(独自算出の注目度): 2.632261166782093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an upward trend of deploying distributed energy resource management systems (DERMS) to control modern power grids. However, DERMS controller communication lines are vulnerable to cyberattacks that could potentially impact operational reliability. While a data-driven intrusion detection system (IDS) can potentially thwart attacks during deployment, also known as the evasion attack, the training of the detection algorithm may be corrupted by adversarial data injected into the database, also known as the poisoning attack. In this paper, we propose the first framework of IDS that is robust against joint poisoning and evasion attacks. We formulate the defense mechanism as a bilevel optimization, where the inner and outer levels deal with attacks that occur during training time and testing time, respectively. We verify the robustness of our method on the IEEE-13 bus feeder model against a diverse set of poisoning and evasion attack scenarios. The results indicate that our proposed method outperforms the baseline technique in terms of accuracy, precision, and recall for intrusion detection.
- Abstract(参考訳): 分散型エネルギー資源管理システム(DERMS)の展開は、現代の電力網を制御するための傾向が強まっている。
しかし、DERMSコントローラ通信ラインは、運用上の信頼性に影響を与える可能性のあるサイバー攻撃に対して脆弱である。
データ駆動型侵入検知システム(IDS)は、回避攻撃(evasion attack)としても知られるデプロイメント中に攻撃を妨害する可能性があるが、検出アルゴリズムのトレーニングは、データベースに注入された敵データ(中毒攻撃)によって損なわれる可能性がある。
本稿では,共同毒殺や脱獄攻撃に対して堅牢なIDSの第1の枠組みを提案する。
防御機構を2段階の最適化として定式化し、内部レベルと外部レベルがそれぞれ訓練時間と試験時間に発生する攻撃に対処する。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
提案手法は,侵入検出の精度,精度,リコールにおいて,ベースライン手法よりも優れていることを示す。
関連論文リスト
- Smart Grid Security: A Verified Deep Reinforcement Learning Framework to Counter Cyber-Physical Attacks [2.159496955301211]
スマートグリッドは戦略的なサイバー物理攻撃に対して脆弱である。
悪意のある攻撃は、高ワットのIoT(Internet of Things)ボットネットデバイスを使用して電力需要を操作することができる。
グリッドオペレータは、設計段階でサイバー物理攻撃の潜在的なシナリオを見落としている。
本稿では,スマートグリッドに対する攻撃を緩和する安全な深層強化学習(DRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:26:20Z) - Charging Ahead: A Hierarchical Adversarial Framework for Counteracting Advanced Cyber Threats in EV Charging Stations [1.873794246359724]
電気自動車(EV)は、より高い充電優先度を得るために偽情報を提供し、グリッド不安定を引き起こす可能性がある。
本稿では,EV充電ステーションにおける盗難サイバー攻撃を効果的に検出するDRL(HADRL)を用いた階層的対向フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-04T08:23:03Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。