論文の概要: Tri-LLM Cooperative Federated Zero-Shot Intrusion Detection with Semantic Disagreement and Trust-Aware Aggregation
- arxiv url: http://arxiv.org/abs/2602.00219v1
- Date: Fri, 30 Jan 2026 16:38:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.064509
- Title: Tri-LLM Cooperative Federated Zero-Shot Intrusion Detection with Semantic Disagreement and Trust-Aware Aggregation
- Title(参考訳): Tri-LLM-Cooperative Federated Zero-Shot Intrusion Detection with Semantic Disagreement and Trust-Aware Aggregation
- Authors: Saeid Jamshidi, Omar Abdul Wahab, Foutse Khomh, Kawser Wazed Nafi,
- Abstract要約: 本稿では,言語に基づくセマンティック管理をフェデレーション最適化に組み込んだ,セマンティックス駆動のフェデレーションIDSフレームワークを提案する。
このフレームワークは、目に見えない攻撃パターンに対して80%以上のゼロショット検出精度を達成し、類似性に基づくベースラインと比較してゼロデイ識別を10%以上改善する。
- 参考スコア(独自算出の注目度): 5.905949608791961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has become an effective paradigm for privacy-preserving, distributed Intrusion Detection Systems (IDS) in cyber-physical and Internet of Things (IoT) networks, where centralized data aggregation is often infeasible due to privacy and bandwidth constraints. Despite its advantages, most existing FL-based IDS assume closed-set learning and lack mechanisms such as uncertainty estimation, semantic generalization, and explicit modeling of epistemic ambiguity in zero-day attack scenarios. Additionally, robustness to heterogeneous and unreliable clients remains a challenge in practical applications. This paper introduces a semantics-driven federated IDS framework that incorporates language-derived semantic supervision into federated optimization, enabling open-set and zero-shot intrusion detection for previously unseen attack behaviors. The approach constructs semantic attack prototypes using a Tri-LLM ensemble of GPT-4o, DeepSeek-V3, and LLaMA-3-8B, aligning distributed telemetry features with high-level attack concepts. Inter-LLM semantic disagreement is modeled as epistemic uncertainty for zero-day risk estimation, while a trust-aware aggregation mechanism dynamically weights client updates based on reliability. Experimental results show stable semantic alignment across heterogeneous clients and consistent convergence. The framework achieves over 80% zero-shot detection accuracy on unseen attack patterns, improving zero-day discrimination by more than 10% compared to similarity-based baselines, while maintaining low aggregation instability in the presence of unreliable or compromised clients.
- Abstract(参考訳): フェデレートラーニング(FL)は、サイバー物理およびIoT(Internet of Things)ネットワークにおいて、プライバシ保護、分散侵入検知システム(IDS)の効果的なパラダイムとなっている。
その利点にもかかわらず、既存のFLベースのIDSでは、ゼロデイアタックシナリオにおいて、不確実性推定、セマンティック・ジェネリゼーション、明示的な認識曖昧性のモデリングといった、クローズドセットの学習とメカニズムが欠如していると仮定している。
さらに、不均一で信頼性の低いクライアントに対する堅牢性は、実用アプリケーションでは依然として課題である。
本稿では,言語に基づく意味制御をフェデレーション最適化に取り入れたセマンティクス駆動のフェデレーションIDSフレームワークを提案する。
このアプローチは、GPT-4o、DeepSeek-V3、LLaMA-3-8BのTri-LLMアンサンブルを用いてセマンティックアタックのプロトタイプを構築し、分散テレメトリと高レベルアタックの概念を整合させる。
LLM間のセマンティック不一致はゼロデイリスク推定における認識の不確実性としてモデル化され,信頼性に基づいた信頼認識集約機構がクライアント更新を動的に重み付けする。
実験により、不均一なクライアント間のセマンティックアライメントが安定であり、一貫した収束を示す。
このフレームワークは、目に見えない攻撃パターンに対して80%以上のゼロショット検出精度を達成し、類似性ベースのベースラインと比較してゼロデイ識別を10%以上改善し、信頼性の低いクライアントや妥協されたクライアントの存在下でのアグリゲーション不安定性を維持する。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Robust Federated Learning for Malicious Clients using Loss Trend Deviation Detection [0.0]
フェデレートラーニング(FL)は、ローカルデバイスに生データが残ることを保証しながら、分散クライアント間の協調的なモデルトレーニングを容易にする。
このようなクライアントは、誤解を招く更新を送信することでトレーニングプロセスに干渉し、グローバルモデルのパフォーマンスと信頼性に悪影響を及ぼす可能性がある。
モデル勾配ではなく時間的損失のダイナミクスを監視して悪意のある行動を検知・緩和する,軽量かつプライバシ保護型防衛フレームワークであるFL-LTDを提案する。
論文 参考訳(メタデータ) (2026-01-28T18:09:53Z) - Evidential Trust-Aware Model Personalization in Decentralized Federated Learning for Wearable IoT [16.700861880781087]
分散連合学習(DFL)は、一元的な調整なしにエッジデバイス間で協調的なモデルトレーニングを可能にする。
本稿では,DFLにおける信頼を意識したモデルパーソナライゼーションを実現するために,明らかなディープラーニングを活用するフレームワークであるMurmuraを紹介する。
論文 参考訳(メタデータ) (2025-12-22T08:26:54Z) - FLARE: Adaptive Multi-Dimensional Reputation for Robust Client Reliability in Federated Learning [0.6524460254566904]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
ビザンツの攻撃、データ中毒、あるいは適応的な敵行動を通じてモデルの完全性を侵害する悪意のあるクライアントには、依然として脆弱である。
FLAREは,クライアントの信頼性評価を二分決定から連続的多次元信頼評価に変換するアダプティブな評価ベースフレームワークである。
論文 参考訳(メタデータ) (2025-11-18T17:57:40Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。