論文の概要: Poster: Enhancing GNN Robustness for Network Intrusion Detection via Agent-based Analysis
- arxiv url: http://arxiv.org/abs/2506.20806v1
- Date: Wed, 25 Jun 2025 19:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.87267
- Title: Poster: Enhancing GNN Robustness for Network Intrusion Detection via Agent-based Analysis
- Title(参考訳): Poster:エージェントベース分析によるネットワーク侵入検出のためのGNNロバストネス向上
- Authors: Zhonghao Zhan, Huichi Zhou, Hamed Haddadi,
- Abstract要約: グラフニューラルネットワーク(GNN)は、NIDS(Network Intrusion Detection Systems)に非常に有望であることを示す
GNNは分布のドリフトによって性能が低下し、現実的な敵攻撃に対するロバスト性が欠如している。
本研究は,エージェントパイプラインにLarge Language Models(LLMs)を模擬サイバーセキュリティ専門家エージェントとして使用することにより,GNNの堅牢性と一般化を促進する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 5.881825061973424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) show great promise for Network Intrusion Detection Systems (NIDS), particularly in IoT environments, but suffer performance degradation due to distribution drift and lack robustness against realistic adversarial attacks. Current robustness evaluations often rely on unrealistic synthetic perturbations and lack demonstrations on systematic analysis of different kinds of adversarial attack, which encompass both black-box and white-box scenarios. This work proposes a novel approach to enhance GNN robustness and generalization by employing Large Language Models (LLMs) in an agentic pipeline as simulated cybersecurity expert agents. These agents scrutinize graph structures derived from network flow data, identifying and potentially mitigating suspicious or adversarially perturbed elements before GNN processing. Our experiments, using a framework designed for realistic evaluation and testing with a variety of adversarial attacks including a dataset collected from physical testbed experiments, demonstrate that integrating LLM analysis can significantly improve the resilience of GNN-based NIDS against challenges, showcasing the potential of LLM agent as a complementary layer in intrusion detection architectures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、特にIoT環境では、ネットワーク侵入検知システム(NIDS)に大きな可能性を秘めている。
現在のロバスト性評価は、しばしば非現実的な合成摂動に依存し、ブラックボックスとホワイトボックスの両方のシナリオを含む様々な種類の敵攻撃の体系的な分析に、実証を欠いている。
本研究は,エージェントパイプラインにLarge Language Models(LLMs)を模擬サイバーセキュリティ専門家エージェントとして使用することにより,GNNの堅牢性と一般化を促進する新しいアプローチを提案する。
これらのエージェントは、ネットワークフローデータから得られるグラフ構造を精査し、GNN処理の前に疑わしい、あるいは逆らった要素を特定し、軽減する可能性がある。
実験では, 物理実験から収集したデータセットを含む種々の敵攻撃を現実的に評価・検証するフレームワークを用いて, LLM分析を統合することにより, 侵入検知アーキテクチャにおける補完層としてのLLMエージェントの可能性を示すとともに, GNNベースのNIDSのレジリエンスを著しく向上させることができることを示した。
関連論文リスト
- Do Spikes Protect Privacy? Investigating Black-Box Model Inversion Attacks in Spiking Neural Networks [0.0]
この研究は、スパイキングニューラルネットワーク(SNN)に対するブラックボックスモデル反転(MI)攻撃の最初の研究である。
我々は、入力変換のためのレートベースの符号化と出力解釈のための復号機構を組み込むことにより、生成逆MIフレームワークをスパイク領域に適用する。
以上の結果から,SNNはANNよりもMI攻撃に対する抵抗性が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2025-02-08T10:02:27Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Understanding the Robustness of Graph Neural Networks against Adversarial Attacks [14.89001880258583]
近年の研究では、グラフニューラルネットワーク(GNN)が敵の攻撃に弱いことが示されている。
この脆弱性により、堅牢なGNNの設計に注目が集まっている。
本研究は,GNNの対角的ロバスト性に関する大規模な研究である。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Efficient Network Representation for GNN-based Intrusion Detection [2.321323878201932]
過去数十年間、深刻な経済とプライバシーの被害を受けたサイバー攻撃の数が増加している。
本稿では,侵入検知タスクのトポロジ情報の提供を目的とした,フローのグラフとしての新しいネットワーク表現を提案する。
提案するグラフ構造を利用したグラフニューラルネットワーク(GNN)に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:10:12Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。