論文の概要: Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS
- arxiv url: http://arxiv.org/abs/2506.20576v1
- Date: Wed, 25 Jun 2025 16:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.838491
- Title: Vulnerability Disclosure through Adaptive Black-Box Adversarial Attacks on NIDS
- Title(参考訳): NIDSにおける適応的ブラックボックス攻撃による脆弱性開示
- Authors: Sabrine Ennaji, Elhadj Benkhelifa, Luigi V. Mancini,
- Abstract要約: 本稿では,ブラックボックス攻撃に対する新たなアプローチを提案する。
システムアクセスを前提としたり、繰り返し探索に依存する従来の作業とは異なり、我々の手法はブラックボックスの制約を厳密に尊重する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
- 参考スコア(独自算出の注目度): 0.393259574660092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks, wherein slight inputs are carefully crafted to mislead intelligent models, have attracted increasing attention. However, a critical gap persists between theoretical advancements and practical application, particularly in structured data like network traffic, where interdependent features complicate effective adversarial manipulations. Moreover, ambiguity in current approaches restricts reproducibility and limits progress in this field. Hence, existing defenses often fail to handle evolving adversarial attacks. This paper proposes a novel approach for black-box adversarial attacks, that addresses these limitations. Unlike prior work, which often assumes system access or relies on repeated probing, our method strictly respect black-box constraints, reducing interaction to avoid detection and better reflect real-world scenarios. We present an adaptive feature selection strategy using change-point detection and causality analysis to identify and target sensitive features to perturbations. This lightweight design ensures low computational cost and high deployability. Our comprehensive experiments show the attack's effectiveness in evading detection with minimal interaction, enhancing its adaptability and applicability in real-world scenarios. By advancing the understanding of adversarial attacks in network traffic, this work lays a foundation for developing robust defenses.
- Abstract(参考訳): 知的なモデルを誤解させるため、わずかな入力が慎重に作成される敵攻撃が注目されている。
しかし、特にネットワークトラフィックのような構造的データにおいて、相互依存的な特徴が効果的な敵操作を複雑にする理論的進歩と実践的応用の間には、重大なギャップが持続する。
さらに、現在のアプローチの曖昧さは再現性を抑制し、この分野の進歩を制限する。
したがって、既存の防御は、しばしば敵の攻撃の進行に対処できない。
本稿では,これらの制約に対処するブラックボックス攻撃に対する新しいアプローチを提案する。
システムアクセスを前提とする以前の作業と異なり,本手法ではブラックボックスの制約を厳格に尊重し,検出を回避するためのインタラクションを低減し,現実のシナリオをよりよく反映する。
本稿では,変化点検出と因果解析を用いた適応的特徴選択手法を提案する。
この軽量な設計は、計算コストの低減と高いデプロイ性を保証する。
包括的実験により、実世界のシナリオにおいて、最小限の相互作用で検出を回避し、適応性と適用性を高めるための攻撃の有効性が示された。
ネットワークトラフィックにおける敵攻撃の理解を深めることにより、この研究は堅牢な防御を開発する基盤となる。
関連論文リスト
- Toward Spiking Neural Network Local Learning Modules Resistant to Adversarial Attacks [2.3312335998006306]
最近の研究では、敵対的な例としてスパイキングニューラルネットワーク(SNN)の脆弱性が示されている。
本稿では,敵インスタンスの転送可能性を活用するハイブリッド攻撃パラダイムを提案する。
提案手法は,既存の攻撃手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-11T18:07:59Z) - Evaluating the Robustness of LiDAR Point Cloud Tracking Against Adversarial Attack [6.101494710781259]
本稿では,3次元物体追跡の文脈において,敵攻撃を行うための統一的なフレームワークを提案する。
ブラックボックス攻撃のシナリオに対処するために,新たなトランスファーベースアプローチであるTarget-aware Perturbation Generation (TAPG)アルゴリズムを導入する。
実験の結果,ブラックボックスとホワイトボックスの両方の攻撃を受けた場合,高度な追跡手法に重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2024-10-28T10:20:38Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Embodied Laser Attack:Leveraging Scene Priors to Achieve Agent-based Robust Non-contact Attacks [13.726534285661717]
本稿では,非接触レーザー攻撃を動的に調整する新しい枠組みであるEmbodied Laser Attack (ELA)を紹介する。
認識モジュールのために,ERAは交通シーンの本質的な事前知識に基づいて,局所的な視点変換ネットワークを革新的に開発してきた。
決定と制御モジュールのために、ERAは時間を要するアルゴリズムを採用する代わりに、データ駆動の強化学習で攻撃エージェントを訓練する。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。