論文の概要: Privacy-Aware Cyberterrorism Network Analysis using Graph Neural Networks and Federated Learning
- arxiv url: http://arxiv.org/abs/2505.16371v1
- Date: Thu, 22 May 2025 08:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.145354
- Title: Privacy-Aware Cyberterrorism Network Analysis using Graph Neural Networks and Federated Learning
- Title(参考訳): グラフニューラルネットワークとフェデレーションラーニングを用いたプライバシを考慮したサイバーテロネットワーク解析
- Authors: Anas Ali, Mubashar Husain, Peter Hans,
- Abstract要約: サイバーテロはデジタルインフラに深刻な脅威をもたらす。
プライバシ対応フェデレーショングラフニューラルネットワークフレームワークを提案する。
GNNは、ユーティリティ、プライバシ、堅牢性を損なうことなく、大規模なサイバー脅威検出をサポートすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cyberterrorism poses a formidable threat to digital infrastructures, with increasing reliance on encrypted, decentralized platforms that obscure threat actor activity. To address the challenge of analyzing such adversarial networks while preserving the privacy of distributed intelligence data, we propose a Privacy-Aware Federated Graph Neural Network (PA-FGNN) framework. PA-FGNN integrates graph attention networks, differential privacy, and homomorphic encryption into a robust federated learning pipeline tailored for cyberterrorism network analysis. Each client trains locally on sensitive graph data and exchanges encrypted, noise-perturbed model updates with a central aggregator, which performs secure aggregation and broadcasts global updates. We implement anomaly detection for flagging high-risk nodes and incorporate defenses against gradient poisoning. Experimental evaluations on simulated dark web and cyber-intelligence graphs demonstrate that PA-FGNN achieves over 91\% classification accuracy, maintains resilience under 20\% adversarial client behavior, and incurs less than 18\% communication overhead. Our results highlight that privacy-preserving GNNs can support large-scale cyber threat detection without compromising on utility, privacy, or robustness.
- Abstract(参考訳): サイバーテロはデジタルインフラに深刻な脅威をもたらし、暗号化された分散プラットフォームへの依存が高まり、アクターの活動が不明瞭になる。
分散インテリジェンスデータのプライバシを維持しながら,このような敵ネットワークを解析する課題に対処するために,プライバシ対応フェデレーショングラフニューラルネットワーク(PA-FGNN)フレームワークを提案する。
PA-FGNNは、グラフアテンションネットワーク、差分プライバシー、および同型暗号化を、サイバーテロネットワーク分析に適した堅牢なフェデレーション学習パイプラインに統合する。
各クライアントは、センシティブなグラフデータに基づいてローカルにトレーニングし、暗号化されたノイズを伴ったモデル更新を中央アグリゲータと交換し、セキュアなアグリゲータを実行し、グローバルな更新をブロードキャストする。
リスクの高いノードにフラグを付けるための異常検出を実装し、勾配中毒に対する防御を組み込む。
シミュレーションしたダークウェブとサイバーインテリジェンスグラフの実験的評価は、PA-FGNNが91%以上の分類精度を達成し、20倍のクライアント動作下でレジリエンスを維持し、通信オーバーヘッドが18倍未満であることを示している。
我々の結果は、プライバシー保護のGNNが、ユーティリティ、プライバシ、堅牢性を損なうことなく、大規模なサイバー脅威検出をサポートすることを強調している。
関連論文リスト
- CONTINUUM: Detecting APT Attacks through Spatial-Temporal Graph Neural Networks [0.9553673944187253]
Advanced Persistent Threats (APT) はサイバーセキュリティにおいて重要な課題である。
従来の侵入検知システム(IDS)は、これらの多段階攻撃を検出するのに不足することが多い。
論文 参考訳(メタデータ) (2025-01-06T12:43:59Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy [43.11374582152925]
グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
論文 参考訳(メタデータ) (2023-06-14T16:11:00Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - NetFense: Adversarial Defenses against Privacy Attacks on Neural
Networks for Graph Data [10.609715843964263]
本稿では,GNNに基づくプライバシ攻撃に対する敵防衛という新たな研究課題を提案する。
目的を達成するために,グラフ摂動に基づくNetFenseを提案する。
論文 参考訳(メタデータ) (2021-06-22T15:32:50Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。