論文の概要: SoK: Systematic analysis of adversarial threats against deep learning approaches for autonomous anomaly detection systems in SDN-IoT networks
- arxiv url: http://arxiv.org/abs/2509.26350v1
- Date: Tue, 30 Sep 2025 14:54:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.589502
- Title: SoK: Systematic analysis of adversarial threats against deep learning approaches for autonomous anomaly detection systems in SDN-IoT networks
- Title(参考訳): SoK:SDN-IoTネットワークにおける自律的異常検出システムのためのディープラーニングアプローチに対する対向的脅威の体系的解析
- Authors: Tharindu Lakshan Yasarathna, Nhien-An Le-Khac,
- Abstract要約: 本研究では、構造化された敵対的脅威モデルと攻撃の包括的分類を導入し、それらをデータ、モデル、ハイブリッドレベルの脅威に分類する。
以上の結果から、敵の攻撃によって検出精度が最大48.4%低下し、メンバーシップ推論が最大の低下を招いたことが判明した。
本稿では、リアルタイムの敵緩和、強化されたリトレーニング機構、説明可能なAI駆動型セキュリティフレームワークなど、適応的な対策を提案する。
- 参考スコア(独自算出の注目度): 1.4610038284393163
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Integrating SDN and the IoT enhances network control and flexibility. DL-based AAD systems improve security by enabling real-time threat detection in SDN-IoT networks. However, these systems remain vulnerable to adversarial attacks that manipulate input data or exploit model weaknesses, significantly degrading detection accuracy. Existing research lacks a systematic analysis of adversarial vulnerabilities specific to DL-based AAD systems in SDN-IoT environments. This SoK study introduces a structured adversarial threat model and a comprehensive taxonomy of attacks, categorising them into data, model, and hybrid-level threats. Unlike previous studies, we systematically evaluate white, black, and grey-box attack strategies across popular benchmark datasets. Our findings reveal that adversarial attacks can reduce detection accuracy by up to 48.4%, with Membership Inference causing the most significant drop. C&W and DeepFool achieve high evasion success rates. However, adversarial training enhances robustness, and its high computational overhead limits the real-time deployment of SDN-IoT applications. We propose adaptive countermeasures, including real-time adversarial mitigation, enhanced retraining mechanisms, and explainable AI-driven security frameworks. By integrating structured threat models, this study offers a more comprehensive approach to attack categorisation, impact assessment, and defence evaluation than previous research. Our work highlights critical vulnerabilities in existing DL-based AAD models and provides practical recommendations for improving resilience, interpretability, and computational efficiency. This study serves as a foundational reference for researchers and practitioners seeking to enhance DL-based AAD security in SDN-IoT networks, offering a systematic adversarial threat model and conceptual defence evaluation based on prior empirical studies.
- Abstract(参考訳): SDNとIoTを統合することで、ネットワーク制御と柔軟性が向上する。
DLベースのAADシステムは、SDN-IoTネットワークにおけるリアルタイム脅威検出を可能にすることにより、セキュリティを改善している。
しかし、これらのシステムは入力データを操作する敵攻撃やモデルの弱点を悪用する攻撃に弱いままであり、検出精度は著しく低下する。
既存の研究では、SDN-IoT環境におけるDLベースのAADシステムに特有の敵対的脆弱性の体系的な分析が欠けている。
このSoK研究は、構造化された敵対的脅威モデルと、攻撃の包括的分類を導入し、それらをデータ、モデル、ハイブリッドレベルの脅威に分類する。
従来の研究とは異なり、人気のあるベンチマークデータセット間で、白、黒、グレーボックスの攻撃戦略を体系的に評価する。
以上の結果から、敵の攻撃によって検出精度が最大48.4%低下し、メンバーシップ推論が最大の低下を招いたことが判明した。
C&WとDeepFoolは高い回避成功率を達成する。
しかし、敵のトレーニングは堅牢性を高め、その高い計算オーバーヘッドはSDN-IoTアプリケーションのリアルタイムデプロイを制限する。
本稿では、リアルタイムの敵緩和、強化されたリトレーニング機構、説明可能なAI駆動型セキュリティフレームワークなど、適応的な対策を提案する。
本研究は、構造化脅威モデルを統合することにより、従来の研究よりも攻撃分類、影響評価、防衛評価をより包括的なアプローチを提供する。
我々の研究は、既存のDLベースのAADモデルの重大な脆弱性を強調し、レジリエンス、解釈可能性、計算効率を改善するための実用的な勧告を提供する。
本研究は, SDN-IoTネットワークにおけるDLベースのAADセキュリティの強化を目指す研究者や実践者の基盤的基準として機能し, 従来の実証研究に基づいて, 体系的逆脅威モデルと概念的防御評価を提供する。
関連論文リスト
- A Scalable Hierarchical Intrusion Detection System for Internet of Vehicles [1.6017263994482716]
Internet of Vehicles(IoV)は、スプーフィングやDistributed Denial of Services(DDoS)攻撃からマルウェアまで、さまざまなサイバー脅威にさらされている。
IoVエコシステムを侵入、悪意のある活動、ポリシー違反、侵入検知システム(IDS)から保護するためには、ネットワークトラフィックを継続的に監視・分析し、潜在的脅威をリアルタイムに特定・緩和することで重要な役割を果たす。
本稿では,IoVネットワークに適した効果的な階層型分類フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T04:30:26Z) - Intrusion Detection System Using Deep Learning for Network Security [0.6554326244334868]
本稿では,深層学習技術に基づくIDSモデルの実験的評価を提案する。
ネットワークトラフィックを悪意のあるカテゴリと良心的なカテゴリに分類することに注力する。
テストされたモデルのうち、最高は96%の精度を達成した。
論文 参考訳(メタデータ) (2025-05-09T06:04:58Z) - Feature Selection via GANs (GANFS): Enhancing Machine Learning Models for DDoS Mitigation [0.0]
本稿では,分散型サービス拒否(DDoS)攻撃を検出するGANFS(Generative Adversarial Network-based Feature Selection)手法を提案する。
GANを攻撃トラフィックに限定して訓練することにより、GANFSは、完全な監視に頼ることなく、機能の重要性を効果的にランク付けする。
その結果は、より適応的でスケーラブルな検出システムを構築するために、生成学習モデルをサイバーセキュリティパイプラインに統合する可能性を示している。
論文 参考訳(メタデータ) (2025-04-21T20:27:33Z) - Beyond the Surface: An NLP-based Methodology to Automatically Estimate CVE Relevance for CAPEC Attack Patterns [42.63501759921809]
本稿では,自然言語処理(NLP)を利用して,共通脆弱性・暴露(CAPEC)脆弱性と共通攻撃パターン・分類(CAPEC)攻撃パターンを関連付ける手法を提案する。
実験による評価は,最先端モデルと比較して優れた性能を示した。
論文 参考訳(メタデータ) (2025-01-13T08:39:52Z) - CANEDERLI: On The Impact of Adversarial Training and Transferability on CAN Intrusion Detection Systems [17.351539765989433]
車両と外部ネットワークの統合が拡大し、コントロールエリアネットワーク(CAN)の内部バスをターゲットにした攻撃が急増した。
対策として,様々な侵入検知システム(IDS)が文献で提案されている。
これらのシステムのほとんどは、機械学習(ML)やディープラーニング(DL)モデルのような、データ駆動のアプローチに依存しています。
本稿では,CANベースのIDSをセキュアにするための新しいフレームワークであるCANEDERLIを提案する。
論文 参考訳(メタデータ) (2024-04-06T14:54:11Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Enhancing IoT Security Against DDoS Attacks through Federated Learning [0.0]
IoT(Internet of Things)は、物理デバイスとデジタル領域の間の変換接続を基盤としている。
従来のDDoS緩和アプローチは、IoTエコシステムの複雑さを扱うには不十分である。
本稿では、フェデレートラーニングの力を活用して、IoTネットワークのDDoS攻撃に対するセキュリティを強化する革新的な戦略を紹介する。
論文 参考訳(メタデータ) (2024-03-16T16:45:28Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。