論文の概要: REAL-IoT: Characterizing GNN Intrusion Detection Robustness under Practical Adversarial Attack
- arxiv url: http://arxiv.org/abs/2507.10836v1
- Date: Mon, 14 Jul 2025 22:10:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.90465
- Title: REAL-IoT: Characterizing GNN Intrusion Detection Robustness under Practical Adversarial Attack
- Title(参考訳): REAL-IoT: 現実的敵攻撃下でのGNN侵入検出ロバスト性を特徴付ける
- Authors: Zhonghao Zhan, Huichi Zhou, Hamed Haddadi,
- Abstract要約: グラフニューラルネットワーク(GNN)ベースのネットワーク侵入検知システム(NIDS)は、単一のデータセットでしばしば評価される。
我々は,IoT環境におけるGNNベースのNIDSの堅牢性評価のための総合的なフレームワークである textbfREAL-IoT を提案する。
- 参考スコア(独自算出の注目度): 5.881825061973424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Network (GNN)-based network intrusion detection systems (NIDS) are often evaluated on single datasets, limiting their ability to generalize under distribution drift. Furthermore, their adversarial robustness is typically assessed using synthetic perturbations that lack realism. This measurement gap leads to an overestimation of GNN-based NIDS resilience. To address the limitations, we propose \textbf{REAL-IoT}, a comprehensive framework for robustness evaluation of GNN-based NIDS in IoT environments. Our framework presents a methodology that creates a unified dataset from canonical datasets to assess generalization under drift. In addition, it features a novel intrusion dataset collected from a physical IoT testbed, which captures network traffic and attack scenarios under real-world settings. Furthermore, using REAL-IoT, we explore the usage of Large Language Models (LLMs) to analyze network data and mitigate the impact of adversarial examples by filtering suspicious flows. Our evaluations using REAL-IoT reveal performance drops in GNN models compared to results from standard benchmarks, quantifying their susceptibility to drift and realistic attacks. We also demonstrate the potential of LLM-based filtering to enhance robustness. These findings emphasize the necessity of realistic threat modeling and rigorous measurement practices for developing resilient IoT intrusion detection systems.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)ベースのネットワーク侵入検知システム(NIDS)は、単一データセット上でしばしば評価され、分散ドリフト下での一般化能力を制限する。
さらに、その敵対的堅牢性は、典型的には現実主義を欠いた合成摂動を用いて評価される。
この測定ギャップは、GNNベースのNIDSレジリエンスの過大評価につながる。
この制限に対処するため,IoT環境におけるGNNベースのNIDSの堅牢性評価のための総合的なフレームワークである‘textbf{REAL-IoT} を提案する。
本フレームワークでは,ドリフト下の一般化を評価するために,標準データセットから統一データセットを作成する手法を提案する。
さらに、物理的なIoTテストベッドから収集された新たな侵入データセットも備えており、実際の設定下でのネットワークトラフィックと攻撃シナリオをキャプチャする。
さらに、REAL-IoTを用いて、ネットワークデータを分析し、不審なフローをフィルタリングすることによって敵例の影響を軽減するために、Large Language Models(LLMs)の使用について検討する。
REAL-IoTを用いた評価では、標準ベンチマークの結果と比較すると、GNNモデルのパフォーマンス低下が明らかになり、ドリフトおよびリアルアタックに対する感受性が定量化される。
また,ロバスト性を高めるため,LLMに基づくフィルタリングの可能性を示す。
これらの知見は、レジリエンスなIoT侵入検知システムを開発する上で、現実的な脅威モデリングと厳密な測定プラクティスの必要性を強調している。
関連論文リスト
- Poster: Enhancing GNN Robustness for Network Intrusion Detection via Agent-based Analysis [5.881825061973424]
グラフニューラルネットワーク(GNN)は、NIDS(Network Intrusion Detection Systems)に非常に有望であることを示す
GNNは分布のドリフトによって性能が低下し、現実的な敵攻撃に対するロバスト性が欠如している。
本研究は,エージェントパイプラインにLarge Language Models(LLMs)を模擬サイバーセキュリティ専門家エージェントとして使用することにより,GNNの堅牢性と一般化を促進する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-06-25T19:49:55Z) - Localization of Impacts on Thin-Walled Structures by Recurrent Neural Networks: End-to-end Learning from Real-World Data [45.9982965995401]
薄肉構造への影響は、圧電センサで測定できるラム波を励起する。
本稿では,ニューラルネットワークを用いた影響の局所化について検討する。
その結果,比較的小さなデータセットであっても,衝撃位置の推定精度は著しく向上した。
論文 参考訳(メタデータ) (2025-05-13T09:08:47Z) - Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability [0.0]
研究は、既存の敵攻撃手法の重大な欠陥を明らかにしている。
ドメイン固有の制約の頻繁な違反は、IoTやネットワークトラフィックに固有のもので、最大80.3%の敵のサンプルが無効になることを示している。
この研究は、セキュリティクリティカルなIoTおよびネットワークアプリケーションのための堅牢なML/DLモデルの評価と設計において、ドメイン制約とモデルアーキテクチャの両方を考慮することの重要性を強調している。
論文 参考訳(メタデータ) (2025-05-02T15:01:42Z) - FLARE: Feature-based Lightweight Aggregation for Robust Evaluation of IoT Intrusion Detection [0.0]
モノのインターネット(IoT)デバイスは攻撃面を拡張し、ネットワーク保護のために効率的な侵入検知システム(IDS)を必要とする。
本稿では、IoT侵入検出の堅牢な評価のための機能ベースの軽量アグリゲーションであるFLAREを提案する。
我々は、IoT IDSの攻撃を分類するために、4つの教師付き学習モデルと2つのディープラーニングモデルを使用します。
論文 参考訳(メタデータ) (2025-04-21T18:33:53Z) - Enhancing Network Intrusion Detection Performance using Generative Adversarial Networks [0.25163931116642785]
GAN(Generative Adversarial Networks)の統合によるNIDSの性能向上のための新しいアプローチを提案する。
GANは、現実世界のネットワークの振る舞いを忠実に模倣する合成ネットワークトラフィックデータを生成する。
NIDSへのGANの統合は,訓練データに制限のある攻撃に対する侵入検知性能の向上につながる可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-11T04:01:15Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Federated Deep Learning for Intrusion Detection in IoT Networks [1.3097853961043058]
AIベースの侵入検知システム(IDS)を分散IoTシステムに実装する一般的なアプローチは、中央集権的な方法である。
このアプローチはデータのプライバシを侵害し、IDSのスケーラビリティを禁止します。
我々は、実世界の実験代表を設計し、FLベースのIDSの性能を評価する。
論文 参考訳(メタデータ) (2023-06-05T09:08:24Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。