論文の概要: Hybrid Reputation Aggregation: A Robust Defense Mechanism for Adversarial Federated Learning in 5G and Edge Network Environments
- arxiv url: http://arxiv.org/abs/2509.18044v1
- Date: Mon, 22 Sep 2025 17:18:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.534099
- Title: Hybrid Reputation Aggregation: A Robust Defense Mechanism for Adversarial Federated Learning in 5G and Edge Network Environments
- Title(参考訳): ハイブリッド・レピュレーション・アグリゲーション:5Gおよびエッジネットワーク環境における対人フェデレーション学習のためのロバスト防御機構
- Authors: Saeid Sheikhi, Panos Kostakos, Lauri Loven,
- Abstract要約: 5Gおよびエッジネットワーク環境におけるフェデレートラーニング(FL)は、敵のクライアントによる深刻なセキュリティ脅威に直面します。
本稿では,攻撃タイプを事前に知ることなく,FLにおける敵の動作を防御する,新しいロバストアグリゲーション機構であるHybrid Reputation Aggregation(HRA)を紹介する。
HRAは、幾何学的異常検出と、モーメントに基づくクライアントの評判追跡を組み合わせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) in 5G and edge network environments face severe security threats from adversarial clients. Malicious participants can perform label flipping, inject backdoor triggers, or launch Sybil attacks to corrupt the global model. This paper introduces Hybrid Reputation Aggregation (HRA), a novel robust aggregation mechanism designed to defend against diverse adversarial behaviors in FL without prior knowledge of the attack type. HRA combines geometric anomaly detection with momentum-based reputation tracking of clients. In each round, it detects outlier model updates via distance-based geometric analysis while continuously updating a trust score for each client based on historical behavior. This hybrid approach enables adaptive filtering of suspicious updates and long-term penalization of unreliable clients, countering attacks ranging from backdoor insertions to random noise Byzantine failures. We evaluate HRA on a large-scale proprietary 5G network dataset (3M+ records) and the widely used NF-CSE-CIC-IDS2018 benchmark under diverse adversarial attack scenarios. Experimental results reveal that HRA achieves robust global model accuracy of up to 98.66% on the 5G dataset and 96.60% on NF-CSE-CIC-IDS2018, outperforming state-of-the-art aggregators such as Krum, Trimmed Mean, and Bulyan by significant margins. Our ablation studies further demonstrate that the full hybrid system achieves 98.66% accuracy, while the anomaly-only and reputation-only variants drop to 84.77% and 78.52%, respectively, validating the synergistic value of our dual-mechanism approach. This demonstrates HRA's enhanced resilience and robustness in 5G/edge federated learning deployments, even under significant adversarial conditions.
- Abstract(参考訳): 5Gおよびエッジネットワーク環境におけるフェデレートラーニング(FL)は、敵のクライアントによる深刻なセキュリティ脅威に直面します。
悪意のある参加者はラベルのフリップを実行したり、バックドアトリガーを注入したり、Sybilアタックを起動してグローバルモデルを破壊することができる。
本稿では,Hybrid Reputation Aggregation(HRA)について紹介する。これは,攻撃タイプを事前に知ることなく,FLにおける多様な敵行動から防御するための,新しいロバストなアグリゲーション機構である。
HRAは、幾何学的異常検出と、モーメントに基づくクライアントの評判追跡を組み合わせる。
各ラウンドにおいて、履歴行動に基づいてクライアント毎の信頼スコアを継続的に更新しながら、距離ベースの幾何解析により、外れ値モデル更新を検出する。
このハイブリッドアプローチは、不審な更新の適応フィルタリングと、バックドア挿入からランダムノイズのビザンチン障害への攻撃に対抗する、信頼性の低いクライアントの長期的ペナル化を可能にする。
我々は,大規模プロプライエタリな5Gネットワークデータセット(3M+レコード)とNF-CSE-CIC-IDS2018ベンチマークを用いて,多様な攻撃シナリオ下でHRAを評価する。
実験の結果、HRAは5Gデータセットで98.66%、NF-CSE-CIC-IDS2018で96.60%の堅牢なグローバルモデル精度を達成し、Krum、Trimmed Mean、Bulyanといった最先端のアグリゲータをかなり上回っていることがわかった。
我々のアブレーション研究では、完全なハイブリッドシステムは98.66%の精度を達成し、異常のみの変種と評判のみの変種はそれぞれ84.77%と78.52%に減少し、我々の二重機械的アプローチの相乗効果を検証した。
このことは、5G/エッジのフェデレーションデプロイメントにおけるHRAの強化されたレジリエンスと堅牢性を示している。
関連論文リスト
- Heterogeneity-Oblivious Robust Federated Learning [26.32889261841124]
低ランク適応(LoRA)を中心とした堅牢なフェデレーション学習フレームワークを提案する。
Horusは、堅牢性と正確性の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-05T15:47:16Z) - Secure and Private Federated Learning: Achieving Adversarial Resilience through Robust Aggregation [4.001189641238278]
フェデレートラーニング(FL)は、生データを共有することなく、分散データソース間で協調的な機械学習を可能にする。
FLは、ビザンツのクライアントと呼ばれる悪意のある参加者からの敵の脅威に弱いままである。
本稿では,FLシステムのレジリエンスとプライバシの保証を両立させる新しいアグリゲーション戦略であるAverage-rKrum(ArKrum)を提案する。
論文 参考訳(メタデータ) (2025-05-22T19:01:09Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。