論文の概要: AdRo-FL: Informed and Secure Client Selection for Federated Learning in the Presence of Adversarial Aggregator
- arxiv url: http://arxiv.org/abs/2506.17805v1
- Date: Sat, 21 Jun 2025 20:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.592739
- Title: AdRo-FL: Informed and Secure Client Selection for Federated Learning in the Presence of Adversarial Aggregator
- Title(参考訳): AdRo-FL: 対向アグリゲータの存在下でのフェデレーション学習のためのインフォームドおよびセキュアクライアント選択
- Authors: Md. Kamrul Hossain, Walid Aljoby, Anis Elgabli, Ahmed M. Abdelmoniem, Khaled A. Harras,
- Abstract要約: Federated Learning (FL)は、クライアントのデータを公開することなく、協調学習を可能にする。
最近の研究は、敵アグリゲータがクライアントの選択を操作してバイパス保護を行う重大な脆弱性を示している。
本稿では,AdRo-FL(Adversarial Robust Federated Learning)を提案する。
AdRo-FLは、安全でないベースラインに比べて、最大で1.85タイム=高速なタイム・トゥ・精度、最大で1.06タイム=高い最終精度を実現している。
- 参考スコア(独自算出の注目度): 8.185201693854367
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) enables collaborative learning without exposing clients' data. While clients only share model updates with the aggregator, studies reveal that aggregators can infer sensitive information from these updates. Secure Aggregation (SA) protects individual updates during transmission; however, recent work demonstrates a critical vulnerability where adversarial aggregators manipulate client selection to bypass SA protections, constituting a Biased Selection Attack (BSA). Although verifiable random selection prevents BSA, it precludes informed client selection essential for FL performance. We propose Adversarial Robust Federated Learning (AdRo-FL), which simultaneously enables: informed client selection based on client utility, and robust defense against BSA maintaining privacy-preserving aggregation. AdRo-FL implements two client selection frameworks tailored for distinct settings. The first framework assumes clients are grouped into clusters based on mutual trust, such as different branches of an organization. The second framework handles distributed clients where no trust relationships exist between them. For the cluster-oriented setting, we propose a novel defense against BSA by (1) enforcing a minimum client selection quota from each cluster, supervised by a cluster-head in every round, and (2) introducing a client utility function to prioritize efficient clients. For the distributed setting, we design a two-phase selection protocol: first, the aggregator selects the top clients based on our utility-driven ranking; then, a verifiable random function (VRF) ensures a BSA-resistant final selection. AdRo-FL also applies quantization to reduce communication overhead and sets strict transmission deadlines to improve energy efficiency. AdRo-FL achieves up to $1.85\times$ faster time-to-accuracy and up to $1.06\times$ higher final accuracy compared to insecure baselines.
- Abstract(参考訳): Federated Learning (FL)は、クライアントのデータを公開することなく、協調学習を可能にする。
クライアントはモデル更新をアグリゲータと共有するだけだが、調査によると、アグリゲータはこれらの更新から機密情報を推測できる。
セキュアアグリゲーション(SA)は、送信中の個々の更新を保護しているが、最近の研究は、敵のアグリゲータがクライアントの選択を操作してSA保護を回避し、バイアス選択攻撃(BSA)を構成する重大な脆弱性を示している。
検証可能なランダム選択はBSAを阻害するが、FL性能に不可欠な情報クライアント選択を阻害する。
本稿では,AdRo-FL(Adversarial Robust Federated Learning)を提案する。
AdRo-FLは異なる設定に適した2つのクライアント選択フレームワークを実装している。
最初のフレームワークでは、クライアントは組織の異なるブランチなど、相互信頼に基づいてクラスタにグループ化されると仮定している。
第2のフレームワークは、信頼関係が存在しない分散クライアントを処理する。
クラスタ指向の環境では,(1)各クラスタから最小限のクライアント選択クォータを強制し,各ラウンドでクラスタヘッドが監督し,(2)効率の良いクライアントを優先するためのクライアントユーティリティ機能を導入することにより,BSAに対する新たな防御手法を提案する。
まず、アグリゲータがユーティリティ駆動のランキングに基づいて上位クライアントを選択し、次に、検証可能なランダム関数(VRF)がBSAに耐性のある最終選択を保証する。
AdRo-FLはまた、通信オーバーヘッドを減らすために量子化を適用し、エネルギー効率を改善するために厳密な送信期限を設定する。
AdRo-FLは、安全でないベースラインに比べて、最大で1.85\times$高速なタイム・トゥ・精度、最大で1.06\times$最終精度を達成している。
関連論文リスト
- FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - Utilizing Free Clients in Federated Learning for Focused Model
Enhancement [9.370655190768163]
Federated Learning(FL)は、分散機械学習のアプローチで、分散化された異種データのモデルを学ぶ。
我々はこの課題に対処するためにFedALIGN(Federated Adaptive Learning with Inclusion of Global Needs)を提案する。
論文 参考訳(メタデータ) (2023-10-06T18:23:40Z) - Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning [2.4201849657206496]
フェデレートラーニング(Federated Learning)は、大規模ニューラルネットワークモデルをトレーニングする分散メカニズムで、複数のクライアントが参加する。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
ブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
論文 参考訳(メタデータ) (2023-07-25T01:35:51Z) - FedGT: Identification of Malicious Clients in Federated Learning with Secure Aggregation [69.75513501757628]
FedGTは、フェデレーション学習における悪意のあるクライアントを安全なアグリゲーションで識別するための新しいフレームワークである。
我々はPillutlaらによって最近提案された幾何的中央値に基づいて,FedGTがプライベートロバストアグリゲーションアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。