論文の概要: A Novel and Practical Universal Adversarial Perturbations against Deep Reinforcement Learning based Intrusion Detection Systems
- arxiv url: http://arxiv.org/abs/2511.18223v1
- Date: Sat, 22 Nov 2025 23:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.705185
- Title: A Novel and Practical Universal Adversarial Perturbations against Deep Reinforcement Learning based Intrusion Detection Systems
- Title(参考訳): 深部強化学習に基づく侵入検知システムに対する新規で実践的な普遍的対向的摂動
- Authors: H. Zhang, L. Zhang, G. Epiphaniou, C. Maple,
- Abstract要約: 侵入検知システム(IDS)は、より高度なサイバー脅威から現代のサイバー物理システムを守る上で重要な役割を担っている。
最近の研究は、UAP(Universal Adversarial Perturbations)を含む敵攻撃に対する脆弱性を明らかにしている
本稿では,ネットワークデータルールと特徴関係から派生したドメイン固有の制約の下で,深層強化学習(DRL)に基づく新たなUAP攻撃を提案する。
- 参考スコア(独自算出の注目度): 1.2268699896617543
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Intrusion Detection Systems (IDS) play a vital role in defending modern cyber physical systems against increasingly sophisticated cyber threats. Deep Reinforcement Learning-based IDS, have shown promise due to their adaptive and generalization capabilities. However, recent studies reveal their vulnerability to adversarial attacks, including Universal Adversarial Perturbations (UAPs), which can deceive models with a single, input-agnostic perturbation. In this work, we propose a novel UAP attack against Deep Reinforcement Learning (DRL)-based IDS under the domain-specific constraints derived from network data rules and feature relationships. To the best of our knowledge, there is no existing study that has explored UAP generation for the DRL-based IDS. In addition, this is the first work that focuses on developing a UAP against a DRL-based IDS under realistic domain constraints based on not only the basic domain rules but also mathematical relations between the features. Furthermore, we enhance the evasion performance of the proposed UAP, by introducing a customized loss function based on the Pearson Correlation Coefficient, and we denote it as Customized UAP. To the best of our knowledge, this is also the first work using the PCC value in the UAP generation, even in the broader context. Four additional established UAP baselines are implemented for a comprehensive comparison. Experimental results demonstrate that our proposed Customized UAP outperforms two input-dependent attacks including Fast Gradient Sign Method (FGSM), Basic Iterative Method (BIM), and four UAP baselines, highlighting its effectiveness for real-world adversarial scenarios.
- Abstract(参考訳): 侵入検知システム(IDS)は、より高度なサイバー脅威から現代のサイバー物理システムを守る上で重要な役割を担っている。
Deep Reinforcement LearningベースのIDSは、適応性と一般化の能力によって約束されている。
しかし、近年の研究では、単一の入力に依存しない摂動でモデルを欺くことができるユニバーサル・アドバイサル摂動(UAP)など、敵の攻撃に対する脆弱性が明らかにされている。
本研究では,ネットワークデータルールや特徴関係から派生したドメイン固有の制約の下で,深層強化学習(DRL)に基づくIDSに対する新たなUAP攻撃を提案する。
我々の知る限り、DRLベースのIDSのためのUAP生成を探求する研究は存在しない。
さらに、基本的なドメインルールだけでなく、特徴間の数学的関係にもとづいて、現実的なドメイン制約の下でDRLベースのIDSに対してUAPを開発することに焦点を当てた最初の作品である。
さらに、ピアソン相関係数に基づくカスタマイズされた損失関数を導入することにより、提案UAPの回避性能を高め、カスタマイズUAPと表現する。
私たちの知る限りでは、UAP生成におけるPCC値の使用は、より広い文脈においても、これが初めての作業です。
さらに4つのUAPベースラインが包括的な比較のために実装されている。
実験の結果,提案するUAPは,FGSM(Fast Gradient Sign Method),BIM(Basic Iterative Method),および4つのUAPベースラインを含む2つの入力依存型攻撃よりも優れており,現実の敵のシナリオに対するその有効性を強調している。
関連論文リスト
- SPEAR++: Scaling Gradient Inversion via Sparsely-Used Dictionary Learning [48.41770886055744]
Federated Learningは最近、現実世界のシナリオへのデプロイが増えている。
いわゆる勾配反転攻撃の導入は、プライバシー保護特性に挑戦している。
本稿では,ReLU活性化を伴う線形層の勾配の理論的解析に基づくSPEARを紹介する。
新たな攻撃であるSPEAR++は、DPノイズに対する堅牢性やFedAvgアグリゲーションなど、SPEARの望ましい特性をすべて保持しています。
論文 参考訳(メタデータ) (2025-10-28T09:06:19Z) - Differential Privacy: Gradient Leakage Attacks in Federated Learning Environments [0.6850683267295249]
フェデレート・ラーニング(FL)は、センシティブなデータを共有せずに、協調的に機械学習モデルのトレーニングを可能にする。
Gradient Leakage Attacks (GLAs)は、共有モデルの更新からプライベート情報を公開することができる。
GLAに対する防衛手段としての差別化プライバシメカニズムの有効性について検討する。
論文 参考訳(メタデータ) (2025-10-27T23:33:21Z) - Unsupervised Fingerphoto Presentation Attack Detection With Diffusion Models [8.979820109339286]
スマートフォンベースの非接触指紋認証は、従来のコンタクトベースの指紋生体認証システムに代わる信頼性の高い方法となっている。
その便利さにもかかわらず、指紋認証による指紋認証は、プレゼンテーション攻撃に対してより脆弱である。
我々は、最先端のディープラーニングに基づく拡散モデル、Denoising Probabilistic Diffusion Model (DDPM)に基づく新しい教師なしアプローチを提案する。
提案手法は,DDPMの入力対と出力対の再構成類似性を算出し,提示攻撃(PA)を検出する。
論文 参考訳(メタデータ) (2024-09-27T11:07:48Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Taming Self-Supervised Learning for Presentation Attack Detection:
De-Folding and De-Mixing [42.733666815035534]
各種提示攻撃装置(PAI)を用いた提示攻撃に対して生体認証システムは脆弱である
DF-DMと呼ばれる自己教師型学習手法を提案する。
DF-DMは、PDDのタスク固有の表現を導出するために、De-FoldingとDe-Mixingと結合したグローバルローカルビューに基づいている。
論文 参考訳(メタデータ) (2021-09-09T08:38:17Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。