論文の概要: Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability
- arxiv url: http://arxiv.org/abs/2505.01328v1
- Date: Fri, 02 May 2025 15:01:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.073292
- Title: Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability
- Title(参考訳): 制約付きネットワーク敵攻撃:妥当性、ロバスト性、転送性
- Authors: Anass Grini, Oumaima Taheri, Btissam El Khamlichi, Amal El Fallah-Seghrouchni,
- Abstract要約: 研究は、既存の敵攻撃手法の重大な欠陥を明らかにしている。
ドメイン固有の制約の頻繁な違反は、IoTやネットワークトラフィックに固有のもので、最大80.3%の敵のサンプルが無効になることを示している。
この研究は、セキュリティクリティカルなIoTおよびネットワークアプリケーションのための堅牢なML/DLモデルの評価と設計において、ドメイン制約とモデルアーキテクチャの両方を考慮することの重要性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning has significantly advanced Network Intrusion Detection Systems (NIDS), particularly within IoT environments where devices generate large volumes of data and are increasingly susceptible to cyber threats, these models remain vulnerable to adversarial attacks. Our research reveals a critical flaw in existing adversarial attack methodologies: the frequent violation of domain-specific constraints, such as numerical and categorical limits, inherent to IoT and network traffic. This leads to up to 80.3% of adversarial examples being invalid, significantly overstating real-world vulnerabilities. These invalid examples, though effective in fooling models, do not represent feasible attacks within practical IoT deployments. Consequently, relying on these results can mislead resource allocation for defense, inflating the perceived susceptibility of IoT-enabled NIDS models to adversarial manipulation. Furthermore, we demonstrate that simpler surrogate models like Multi-Layer Perceptron (MLP) generate more valid adversarial examples compared to complex architectures such as CNNs and LSTMs. Using the MLP as a surrogate, we analyze the transferability of adversarial severity to other ML/DL models commonly used in IoT contexts. This work underscores the importance of considering both domain constraints and model architecture when evaluating and designing robust ML/DL models for security-critical IoT and network applications.
- Abstract(参考訳): 機械学習はネットワーク侵入検知システム(NIDS)を著しく進歩させており、特にIoT環境では、デバイスが大量のデータを生成し、サイバー脅威の影響を受けやすくなっているが、これらのモデルは敵の攻撃に弱いままである。
本研究は,IoTやネットワークトラフィックに固有の数値的制約や分類的制約といった,ドメイン固有の制約の頻繁な違反という,既存の敵攻撃手法の重大な欠陥を明らかにする。
これにより、敵のサンプルの80.3%が無効となり、現実世界の脆弱性を著しく過大評価している。
これらの無効な例は、モデルを騙すのに効果的だが、実用的なIoTデプロイメントにおける実行可能な攻撃を表現していない。
したがって、これらの結果に頼れば、防衛のためのリソース割り当てを誤解させ、IoT対応NIDSモデルの敵の操作に対する感受性を増大させる可能性がある。
さらに,Multi-Layer Perceptron (MLP) のような単純なサロゲートモデルは,CNNやLSTMのような複雑なアーキテクチャと比較して,より有効な逆例を生成することを示した。
MLPをサロゲートとして使用することにより、IoTコンテキストで一般的に使用される他のML/DLモデルに対する敵の重大度の転送可能性を分析する。
この研究は、セキュリティクリティカルなIoTおよびネットワークアプリケーションのための堅牢なML/DLモデルの評価と設計において、ドメイン制約とモデルアーキテクチャの両方を考慮することの重要性を強調している。
関連論文リスト
- R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Development of an Edge Resilient ML Ensemble to Tolerate ICS Adversarial Attacks [0.9437165725355702]
敵の攻撃に耐えられるように設計された、レジリエントなエッジ機械学習アーキテクチャを構築します。
reMLはResilient DDDASパラダイム、移動目標防衛(MTD)理論、TinyMLに基づいている。
提案手法は電力効率とプライバシ保護であり,ISCのセキュリティを高めるため,電力制約のあるデバイスにデプロイすることができる。
論文 参考訳(メタデータ) (2024-09-26T19:37:37Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - SoK: Realistic Adversarial Attacks and Defenses for Intelligent Network
Intrusion Detection [0.0]
本稿では,現実的な実例を生み出すことのできる,最先端の対人学習アプローチの統合と要約を行う。
これは、逆例が現実的であるために必要な基本的性質を定義する。
研究者が将来の実験が実際の通信ネットワークに適切であることを確実にするためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-08-13T17:23:36Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Adversarial Evasion Attacks Practicality in Networks: Testing the Impact of Dynamic Learning [1.6574413179773757]
敵攻撃は、MLモデルを騙して欠陥予測を生成することを目的としている。
敵攻撃はMLベースのNIDSを妥協する。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Adversarial Examples in Deep Learning for Multivariate Time Series
Regression [0.0]
この研究は、逆時系列の例に対するディープラーニング回帰モデル(DL)の脆弱性について考察する。
我々は、CNN、Long Short-Term Memory(LSTM)、Gated Recurrent Unit(GRU)の逆時系列例を作成する。
その結果, 評価されたDL回帰モデルはすべて, 敵攻撃に対して脆弱であり, 転送可能であり, 破滅的な結果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。