論文の概要: Differentially Private Federated Clustering over Non-IID Data
- arxiv url: http://arxiv.org/abs/2301.00955v3
- Date: Mon, 30 Oct 2023 14:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-12 19:54:54.751283
- Title: Differentially Private Federated Clustering over Non-IID Data
- Title(参考訳): 非iidデータ上の差分プライベートフェデレーションクラスタリング
- Authors: Yiwei Li, Shuai Wang, Chong-Yung Chi, Tony Q. S. Quek
- Abstract要約: クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
- 参考スコア(独自算出の注目度): 59.611244450530315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate federated clustering (FedC) problem, that aims
to accurately partition unlabeled data samples distributed over massive clients
into finite clusters under the orchestration of a parameter server, meanwhile
considering data privacy. Though it is an NP-hard optimization problem
involving real variables denoting cluster centroids and binary variables
denoting the cluster membership of each data sample, we judiciously reformulate
the FedC problem into a non-convex optimization problem with only one convex
constraint, accordingly yielding a soft clustering solution. Then a novel FedC
algorithm using differential privacy (DP) technique, referred to as DP-FedC, is
proposed in which partial clients participation and multiple local model
updating steps are also considered. Furthermore, various attributes of the
proposed DP-FedC are obtained through theoretical analyses of privacy
protection and convergence rate, especially for the case of non-identically and
independently distributed (non-i.i.d.) data, that ideally serve as the
guidelines for the design of the proposed DP-FedC. Then some experimental
results on two real datasets are provided to demonstrate the efficacy of the
proposed DP-FedC together with its much superior performance over some
state-of-the-art FedC algorithms, and the consistency with all the presented
analytical results.
- Abstract(参考訳): 本稿では,大規模クライアント上に分散した未ラベルデータサンプルをパラメータサーバのオーケストレーション下で有限クラスタに正確に分割することを目的とした,フェデレーションクラスタリング(FedC)問題について検討する。
クラスタセントロイドを示す実変数と,各データサンプルのクラスタメンバシップを示すバイナリ変数を含むNPハード最適化問題であるが,ソフトクラスタリングソリューションにより,FedC問題を1つの凸制約のみで非凸最適化問題に変換する。
そこで,DP-FedCと呼ばれる差分プライバシ(DP)技術を用いた新しいFedCアルゴリズムを提案する。
さらに, プライバシ保護と収束率の理論的解析により, 提案するdp-fedcの設計指針として理想的に機能する非識別・独立分散(非i.i.d.)データに対して, 提案するdp-fedcの様々な特性が得られた。
次に, 提案するdp-fedcの有効性と, 最先端のfemcアルゴリズムよりも優れた性能, 提示されたすべての解析結果との一貫性を実証するために, 2つの実データを用いた実験結果を提示した。
関連論文リスト
- Privacy-preserving Quantification of Non-IID Degree in Federated Learning [22.194684042923406]
フェデレーテッド・ラーニング(FL)は、生データを共有することなく、複数のコラボレータに対して、マシンラーニングに対するプライバシ保護アプローチを提供する。
異なるクライアントにまたがる非独立かつ非独立に分散された(非IID)データセットの存在は、FLにとって大きな課題である。
本稿では,累積分布関数を用いて,フェデレーション環境における非IID度を定量的に定義する。
論文 参考訳(メタデータ) (2024-06-14T03:08:53Z) - Rethinking Clustered Federated Learning in NOMA Enhanced Wireless
Networks [60.09912912343705]
本研究では,新しいクラスタ化フェデレーション学習(CFL)アプローチと,非独立かつ同一に分散した(非IID)データセットを統合することのメリットについて検討する。
データ分布における非IIDの度合いを測定する一般化ギャップの詳細な理論的解析について述べる。
非IID条件によって引き起こされる課題に対処する解決策は、特性の分析によって提案される。
論文 参考訳(メタデータ) (2024-03-05T17:49:09Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Federated Two Stage Decoupling With Adaptive Personalization Layers [5.69361786082969]
フェデレーション学習は、プライバシ制約を維持しながら分散学習を可能にする能力によって、大きな注目を集めている。
本質的には、学習の劣化と収束速度の低下を経験する。
等質なクライアントを同じ群にクラスタリングするという概念を採用することは自然であり、各群内のモデル重みのみを集約することができる。
論文 参考訳(メタデータ) (2023-08-30T07:46:32Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Personalized Graph Federated Learning with Differential Privacy [6.282767337715445]
本稿では、分散接続されたサーバとそのエッジデバイスが協調してデバイスやクラスタ固有のモデルを学習する、パーソナライズされたグラフフェデレーション学習(PGFL)フレームワークを提案する。
本稿では、差分プライバシー、特にノイズシーケンスがモデル交換を行うゼロ集中差分プライバシーを利用するPGFL実装の変種について検討する。
分析の結果,このアルゴリズムは,ゼロ集中型差分プライバシーの観点から,全クライアントの局所的な差分プライバシを保証することがわかった。
論文 参考訳(メタデータ) (2023-06-10T09:52:01Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - A Unified Linear Speedup Analysis of Federated Averaging and Nesterov
FedAvg [49.76940694847521]
フェデレーションラーニング(FL)は、互いにプライベートに保持されたデータを共有せずに、参加する一連のデバイスからモデルを共同で学習する。
本稿では,FedAvg(Federated Averaging, FedAvg)に焦点をあてる。
また,FedAvgは収束率や通信効率が異なるが,各ケースで線形スピードアップを享受していることを示す。
論文 参考訳(メタデータ) (2020-07-11T05:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。