論文の概要: FLTG: Byzantine-Robust Federated Learning via Angle-Based Defense and Non-IID-Aware Weighting
- arxiv url: http://arxiv.org/abs/2505.12851v1
- Date: Mon, 19 May 2025 08:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.490734
- Title: FLTG: Byzantine-Robust Federated Learning via Angle-Based Defense and Non-IID-Aware Weighting
- Title(参考訳): FLTG: アングル・ベース・ディフェンスと非IID-Aware Weightingによるビザンチン・ロバスト・フェデレーション・ラーニング
- Authors: Yanhua Wen, Lu Ai, Gang Liu, Chuang Li, Jianhao Wei,
- Abstract要約: ビザンティン攻撃は、悪意のあるクライアントの更新を操作することで、トレーニングの完全性を脅かす。
既存の手法は、高い悪意のあるクライアント比率と非I.D.データに対する感度の下で、限られたロバスト性に苦しむ。
角度に基づくディフェンスと動的参照選択を統合した新しいアグリゲーションアルゴリズムFLTGを提案する。
- 参考スコア(独自算出の注目度): 2.4568855903094815
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Byzantine attacks during model aggregation in Federated Learning (FL) threaten training integrity by manipulating malicious clients' updates. Existing methods struggle with limited robustness under high malicious client ratios and sensitivity to non-i.i.d. data, leading to degraded accuracy. To address this, we propose FLTG, a novel aggregation algorithm integrating angle-based defense and dynamic reference selection. FLTG first filters clients via ReLU-clipped cosine similarity, leveraging a server-side clean dataset to exclude misaligned updates. It then dynamically selects a reference client based on the prior global model to mitigate non-i.i.d. bias, assigns aggregation weights inversely proportional to angular deviations, and normalizes update magnitudes to suppress malicious scaling. Evaluations across datasets of varying complexity under five classic attacks demonstrate FLTG's superiority over state-of-the-art methods under extreme bias scenarios and sustains robustness with a higher proportion(over 50%) of malicious clients.
- Abstract(参考訳): フェデレートラーニング(FL)におけるモデルアグリゲーション中のビザンチン攻撃は、悪意のあるクライアントの更新を操作することで、トレーニングの整合性を脅かす。
既存の手法は、高い悪意のあるクライアント比で限られたロバスト性に悩まされ、非I.D.データに対する感度が低下し、精度が低下する。
そこで本研究では,角度に基づく防御と動的参照選択を統合した新しい集約アルゴリズムであるFLTGを提案する。
FLTGはまず、ReLUでラップされたコサイン類似性を通じてクライアントをフィルタリングし、サーバ側のクリーンデータセットを活用して、不整合アップデートを除外する。
そして、非i.d.バイアスを緩和するために、前のグローバルモデルに基づいて参照クライアントを動的に選択し、角偏差に逆比例して集約重みを割り当て、悪意のあるスケーリングを抑制するために更新サイズを正規化する。
5つの古典的な攻撃下でのさまざまな複雑さのデータセットに対する評価は、FLTGが極端なバイアスシナリオ下での最先端のメソッドよりも優れていることを示し、悪意のあるクライアントの割合(50%以上)で堅牢性を維持する。
関連論文リスト
- FL-PLAS: Federated Learning with Partial Layer Aggregation for Backdoor Defense Against High-Ratio Malicious Clients [7.1383449614815415]
フェデレートラーニング(FL)は、新たなコラボレーティブ機械学習アプローチとして注目を集めている。
FLの基本アルゴリズムであるFederated Averaging (FedAvg)は、バックドア攻撃の影響を受けやすい。
バックドア攻撃からローカルモデルを効果的に保護できる新しい防御アルゴリズムFL-PLASを提案する。
論文 参考訳(メタデータ) (2025-05-17T14:16:47Z) - FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - Honest Score Client Selection Scheme: Preventing Federated Learning Label Flipping Attacks in Non-IID Scenarios [27.36889020561564]
フェデレートラーニング(FL)は、複数のアクターが生データを共有せずにジョイントモデルを構築することができる有望な技術である。
この分散した性質により、FLはモデル中毒攻撃やデータ中毒攻撃など、様々な中毒攻撃に対して脆弱である。
本稿では,最も代表的なデータ中毒攻撃である「ラベルフリップ攻撃」に注目し,既存のFL法を攻撃した場合の有効性をモニタリングする。
論文 参考訳(メタデータ) (2023-11-10T02:07:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。