論文の概要: H+: An Efficient Similarity-Aware Aggregation for Byzantine Resilient Federated Learning
- arxiv url: http://arxiv.org/abs/2509.24330v1
- Date: Mon, 29 Sep 2025 06:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.784575
- Title: H+: An Efficient Similarity-Aware Aggregation for Byzantine Resilient Federated Learning
- Title(参考訳): H+: ビザンチンレジリエンス・フェデレーション学習のための効率的な類似性認識アグリゲーション
- Authors: Shiyuan Zuo, Rongfei Fan, Cheng Zhan, Jie Xu, Puning Zhao, Han Hu,
- Abstract要約: Federated Learning (FL)は、生データを共有することなく、分散モデルトレーニングを可能にする。
FLは、中央サーバでローカルに更新されたパラメータの集約を損なう可能性があるByzantine攻撃に対して脆弱なままである。
類似性を認識したアグリゲーションは、悪意のあるクライアントを特定してフィルタリングすることで、このような攻撃を軽減する効果的な戦略として現れている。
クリーンなデータを持つシナリオにおいて既存のメソッドよりも優れているだけでなく,クリーンなデータを持たないFLシステムにも適用可能な,新しい類似性を考慮したアグリゲーション手法であるH+を提案する。
- 参考スコア(独自算出の注目度): 24.71518867603466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables decentralized model training without sharing raw data. However, it remains vulnerable to Byzantine attacks, which can compromise the aggregation of locally updated parameters at the central server. Similarity-aware aggregation has emerged as an effective strategy to mitigate such attacks by identifying and filtering out malicious clients based on similarity between client model parameters and those derived from clean data, i.e., data that is uncorrupted and trustworthy. However, existing methods adopt this strategy only in FL systems with clean data, making them inapplicable to settings where such data is unavailable. In this paper, we propose H+, a novel similarity-aware aggregation approach that not only outperforms existing methods in scenarios with clean data, but also extends applicability to FL systems without any clean data. Specifically, H+ randomly selects $r$-dimensional segments from the $p$-dimensional parameter vectors uploaded to the server and applies a similarity check function $H$ to compare each segment against a reference vector, preserving the most similar client vectors for aggregation. The reference vector is derived either from existing robust algorithms when clean data is unavailable or directly from clean data. Repeating this process $K$ times enables effective identification of honest clients. Moreover, H+ maintains low computational complexity, with an analytical time complexity of $\mathcal{O}(KMr)$, where $M$ is the number of clients and $Kr \ll p$. Comprehensive experiments validate H+ as a state-of-the-art (SOTA) method, demonstrating substantial robustness improvements over existing approaches under varying Byzantine attack ratios and multiple types of traditional Byzantine attacks, across all evaluated scenarios and benchmark datasets.
- Abstract(参考訳): Federated Learning (FL)は、生データを共有することなく、分散モデルトレーニングを可能にする。
しかしながら、中央サーバでローカルに更新されたパラメータの集約を損なう可能性がある、Byzantine攻撃に対して脆弱なままである。
類似性を考慮したアグリゲーションは、クライアントモデルパラメータとクリーンデータ、すなわち不正で信頼性の高いデータとの類似性に基づいて悪意のあるクライアントを識別・フィルタリングすることで、このような攻撃を緩和する効果的な戦略として現れてきた。
しかし、既存の手法では、クリーンなデータを持つFLシステムでのみこの戦略を採用しており、そのようなデータが利用できない設定では適用できない。
本稿では,新しい類似性認識集約手法であるH+を提案する。これは,クリーンデータを持つシナリオにおいて既存の手法よりも優れるだけでなく,クリーンデータを持たないFLシステムへの適用性も拡張する。
具体的には、H+はサーバにアップロードされた$p$-dimensionalパラメータベクトルから$r$-dimensionalセグメントをランダムに選択し、類似性チェック関数$H$を適用して各セグメントを参照ベクタと比較し、最もよく似たクライアントベクタを集約するために保存する。
参照ベクトルは、クリーンデータが利用できない場合や、クリーンデータから直接、既存のロバストなアルゴリズムから導出される。
このプロセスを繰り返す$K$ timesは、誠実なクライアントの効果的な識別を可能にする。
さらに、H+は計算量が少なく、解析時間の複雑さは$\mathcal{O}(KMr)$で、$M$はクライアントの数、$Kr \ll p$である。
包括的な実験は、H+を最先端(SOTA)手法として検証し、さまざまなByzantine攻撃比率と複数のByzantine攻撃の下での既存のアプローチに対して、すべての評価シナリオとベンチマークデータセットに対して、実質的な堅牢性の向上を示す。
関連論文リスト
- Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - FLTG: Byzantine-Robust Federated Learning via Angle-Based Defense and Non-IID-Aware Weighting [2.4568855903094815]
ビザンティン攻撃は、悪意のあるクライアントの更新を操作することで、トレーニングの完全性を脅かす。
既存の手法は、高い悪意のあるクライアント比率と非I.D.データに対する感度の下で、限られたロバスト性に苦しむ。
角度に基づくディフェンスと動的参照選択を統合した新しいアグリゲーションアルゴリズムFLTGを提案する。
論文 参考訳(メタデータ) (2025-05-19T08:39:07Z) - Efficient Federated Learning against Byzantine Attacks and Data Heterogeneity via Aggregating Normalized Gradients [27.433334322019675]
Federated Learning (FL)は、クライアントが生データを共有せずに、協力的にモデルをトレーニングすることを可能にする。
FLはByzantine攻撃やデータ不均一性の反復に弱いため、パフォーマンスが著しく低下する可能性がある。
フェデレート正規化勾配アルゴリズム (Federated Normalized Gradients Algorithm, NGA) を提案する。
既存手法に対するベンチマーク収束の実験結果
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking [58.37644304554906]
誤り訂正符号と透かしを用いたデータ検索法(DREW)を提案する。
DREWはランダムに参照データセットをクラスタ化し、各クラスタに独自のエラー制御された透かしキーを注入する。
関連するクラスタを特定した後、最も正確な一致を見つけるために、クラスタ内に埋め込みベクトル類似性検索を行う。
論文 参考訳(メタデータ) (2024-06-05T01:19:44Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Suppressing Poisoning Attacks on Federated Learning for Medical Imaging [4.433842217026879]
本稿では, ビザンチン障害に対する耐性を有する分散型外乱抑制法(DOS)を提案する。
提案手法は,異なるクライアントのローカルパラメータ更新間の距離を計算し,各クライアントに対してアウトラヤスコアを求める。
得られたアウトリーチスコアはソフトマックス関数を用いて正規化重みに変換され、局所パラメータの重み付け平均がグローバルモデル更新に使用される。
論文 参考訳(メタデータ) (2022-07-15T00:43:34Z) - Byzantine-Resilient High-Dimensional Federated Learning [10.965065178451104]
我々は、悪意のある/ビザンツ人クライアントの存在下で、局所的な反復を伴う勾配CV降下(SGD)を採用する。
クライアントは独自の勾配ベクトルのサブセットを取得してイテレーションを更新し、その後、ネットと通信する。
我々のアルゴリズムは、ローカルデータセットを用いた最初のビザンチン耐性アルゴリズムと分析であると信じている。
論文 参考訳(メタデータ) (2020-06-22T03:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。