論文の概要: EBS-CFL: Efficient and Byzantine-robust Secure Clustered Federated Learning
- arxiv url: http://arxiv.org/abs/2506.13612v1
- Date: Mon, 16 Jun 2025 15:39:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.881116
- Title: EBS-CFL: Efficient and Byzantine-robust Secure Clustered Federated Learning
- Title(参考訳): EBS-CFL:効率的かつビザンチン・ロバストセキュアクラスタ型フェデレーションラーニング
- Authors: Zhiqiang Li, Haiyong Bao, Menghong Guan, Hao Pan, Cheng Huang, Hong-Ning Dai,
- Abstract要約: EBS-CFLは、ユーザのクラスタアイデンティティを秘密に維持しながら、CFLを効果的にトレーニングする。
個々のクライアント勾配を損なうことなく潜在的に有毒な攻撃を検出する。
通信にはクライアント側のオーバーヘッドO(ml + m2)、計算にはO(m2l)が使われる。
- 参考スコア(独自算出の注目度): 20.64178816669345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite federated learning (FL)'s potential in collaborative learning, its performance has deteriorated due to the data heterogeneity of distributed users. Recently, clustered federated learning (CFL) has emerged to address this challenge by partitioning users into clusters according to their similarity. However, CFL faces difficulties in training when users are unwilling to share their cluster identities due to privacy concerns. To address these issues, we present an innovative Efficient and Robust Secure Aggregation scheme for CFL, dubbed EBS-CFL. The proposed EBS-CFL supports effectively training CFL while maintaining users' cluster identity confidentially. Moreover, it detects potential poisonous attacks without compromising individual client gradients by discarding negatively correlated gradients and aggregating positively correlated ones using a weighted approach. The server also authenticates correct gradient encoding by clients. EBS-CFL has high efficiency with client-side overhead O(ml + m^2) for communication and O(m^2l) for computation, where m is the number of cluster identities, and l is the gradient size. When m = 1, EBS-CFL's computational efficiency of client is at least O(log n) times better than comparison schemes, where n is the number of clients.In addition, we validate the scheme through extensive experiments. Finally, we theoretically prove the scheme's security.
- Abstract(参考訳): 協調学習におけるフェデレートラーニング(FL)の可能性にもかかわらず、分散ユーザのデータ不均一性により、その性能は低下している。
近年,クラスタ化フェデレーション学習(CFL)が登場し,ユーザをクラスタに分割することで,その課題に対処している。
しかしながら、CFLは、プライバシの懸念から、クラスタのIDを共有することを嫌がっている場合、トレーニングの困難に直面します。
これらの課題に対処するために, EBS-CFL と呼ばれる CFL の高効率かつロバストなセキュアアグリゲーション方式を提案する。
提案するEBS-CFLは,ユーザのクラスタアイデンティティを秘密に保持しながら,CFLを効果的にトレーニングする。
さらに、負の相関勾配を排除し、重み付けアプローチを用いて正の相関勾配を集約することにより、個々のクライアント勾配を損なうことなく潜在的に有毒な攻撃を検出する。
サーバはまた、クライアントによる正しいグラデーションエンコーディングを認証する。
EBS-CFL は通信のクライアント側オーバーヘッド O(ml + m^2) と計算の O(m^2l) を高い効率で行う。
m = 1 の場合、EBS-CFL のクライアントの計算効率は、クライアント数 n がクライアント数である比較スキームよりも少なくとも O(log n) 倍高い。
最後に,提案手法の安全性を理論的に証明する。
関連論文リスト
- Random Client Selection on Contrastive Federated Learning for Tabular Data [11.930322590346139]
Vertical Federated Learning (VFL)は、複数のパーティでプライバシ保護モデルトレーニングを可能にすることによって、コラボレーション機械学習に革命をもたらした。
中間計算共有時の情報漏洩に弱いままである。
コントラシブ・フェデレート・ラーニング(CFL)は、これらのプライバシー問題を表現学習によって緩和するために導入された。
本稿では,CFL環境における勾配に基づく攻撃の包括的実験的解析について述べる。
論文 参考訳(メタデータ) (2025-05-16T00:20:02Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - ByzSFL: Achieving Byzantine-Robust Secure Federated Learning with Zero-Knowledge Proofs [23.987032630627528]
AIモデルは、分散型でプライベートなデータの性質のため、医療や金融といったデータに敏感な業界では課題に直面している。
本研究では,ビザンチン・ロバスト・セキュアアグリゲーションを高効率で実現する新しいシステムであるByzSFLを提案する。
この手法はアグリゲーションの整合性を維持するだけでなく、計算効率を大幅に向上させ、既存のソリューションの約100倍の速度でByzSFLを実現する。
論文 参考訳(メタデータ) (2025-01-12T22:14:45Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Stochastic Clustered Federated Learning [21.811496586350653]
本稿では,一般の非IID問題に対する新しいクラスタ化フェデレーション学習手法であるStoCFLを提案する。
詳細は、StoCFLは、任意の割合のクライアント参加と新しく加入したクライアントをサポートする柔軟なCFLフレームワークを実装しています。
その結果,StoCFLはクラスタ数の不明な場合でも,有望なクラスタ結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-03-02T01:39:16Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。