論文の概要: Differentially Private Federated Clustering with Random Rebalancing
- arxiv url: http://arxiv.org/abs/2508.06183v1
- Date: Fri, 08 Aug 2025 09:56:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.187136
- Title: Differentially Private Federated Clustering with Random Rebalancing
- Title(参考訳): ランダムリバランシングによる個人別フェデレーションクラスタリング
- Authors: Xiyuan Yang, Shengyuan Hu, Soyeon Kim, Tian Li,
- Abstract要約: フェデレートされたクラスタリングは、類似のクライアントをクラスタにグループ化し、クラスタ毎に1つのモデルを生成することを目的としている。
本稿では,多くのフェデレートクラスタリングアルゴリズムに対する軽量なアドオンとみなすことができるRR-Clusterを提案する。
プライバシノイズのばらつきの低減と、不正な割り当てによるバイアスの増加とのトレードオフを分析する。
- 参考スコア(独自算出の注目度): 9.331231828491461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated clustering aims to group similar clients into clusters and produce one model for each cluster. Such a personalization approach typically improves model performance compared with training a single model to serve all clients, but can be more vulnerable to privacy leakage. Directly applying client-level differentially private (DP) mechanisms to federated clustering could degrade the utilities significantly. We identify that such deficiencies are mainly due to the difficulties of averaging privacy noise within each cluster (following standard privacy mechanisms), as the number of clients assigned to the same clusters is uncontrolled. To this end, we propose a simple and effective technique, named RR-Cluster, that can be viewed as a light-weight add-on to many federated clustering algorithms. RR-Cluster achieves reduced privacy noise via randomly rebalancing cluster assignments, guaranteeing a minimum number of clients assigned to each cluster. We analyze the tradeoffs between decreased privacy noise variance and potentially increased bias from incorrect assignments and provide convergence bounds for RR-Clsuter. Empirically, we demonstrate the RR-Cluster plugged into strong federated clustering algorithms results in significantly improved privacy/utility tradeoffs across both synthetic and real-world datasets.
- Abstract(参考訳): Federated Clusteringは、類似のクライアントをクラスタにグループ化し、クラスタ毎に1つのモデルを生成することを目的としている。
このようなパーソナライズアプローチは、通常、すべてのクライアントにサービスを提供する単一のモデルをトレーニングするよりもモデルパフォーマンスを改善するが、プライバシの漏洩に対してより脆弱になる可能性がある。
クライアントレベルの差分的プライベート(DP)機構を直接フェデレートクラスタリングに適用することは、ユーティリティを著しく劣化させる可能性がある。
このような欠陥は主に、同一クラスタに割り当てられたクライアント数が制御されていないため、各クラスタ内のプライバシノイズ(標準的なプライバシメカニズムに従う)を平均化することの難しさに起因する。
そこで本研究では,多数のフェデレートクラスタリングアルゴリズムに対する軽量なアドオンとみなす,RR-Clusterと呼ばれるシンプルで効果的な手法を提案する。
RR-Clusterはクラスタ割り当てをランダムに再バランスすることで、各クラスタに割り当てられた最小数のクライアントを保証することで、プライバシノイズの低減を実現している。
我々は、プライバシーノイズのばらつきの低減と、不正な割り当てによるバイアスの増加とのトレードオフを分析し、RR-Clsuterの収束境界を提供する。
経験的に、RR-Clusterを強力なフェデレーションクラスタリングアルゴリズムに接続すると、合成データセットと実世界のデータセットの両方で、プライバシーとユーティリティのトレードオフが大幅に改善される。
関連論文リスト
- CLoVE: Personalized Federated Learning through Clustering of Loss Vector Embeddings [1.966764032092535]
クラスタ化フェデレーション学習(CFL)のための新しいアルゴリズムであるCLoVEを提案する。
CLoVEは、クライアントデータに対するモデル損失に由来するクライアントの埋め込みを利用し、同じクラスタ内のクライアントが同様の損失値を共有するという洞察を活用する。
CLoVEは、異なるクラスタからクライアントを反復的に識別し、分離し、クラスタ固有のモデルを最適化することができる。
論文 参考訳(メタデータ) (2025-06-27T17:52:16Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Equitable Federated Learning with Activation Clustering [5.116582735311639]
フェデレートラーニング(Federated Learning)は、さまざまなクライアント間のコラボレーションを取り入れた、卓越した分散学習パラダイムである。
本稿では,クライアント同士の類似度に基づいて,クライアントを分類・クラスタ化する同値クラスタリングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-24T23:36:39Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Revisiting Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [69.15976031704687]
IAC (Instance-Adaptive Clustering, インスタンス適応クラスタリング) を提案する。
IACは$ MathcalO(n, textpolylog(n) $の計算複雑性を維持しており、大規模問題に対してスケーラブルで実用的なものである。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。