論文の概要: Fair Federated Data Clustering through Personalization: Bridging the Gap between Diverse Data Distributions
- arxiv url: http://arxiv.org/abs/2407.04302v2
- Date: Fri, 12 Jul 2024 08:35:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 04:08:23.998791
- Title: Fair Federated Data Clustering through Personalization: Bridging the Gap between Diverse Data Distributions
- Title(参考訳): パーソナライズによる公正なフェデレーションデータクラスタリング - 分散データ分散のギャップを埋める
- Authors: Shivam Gupta, Tarushi, Tsering Wangzes, Shweta Jain,
- Abstract要約: フェデレーションクラスタリングにおけるパーソナライズの概念を導入し、より低いクラスタリングコストとクライアント間の均一なコストのバランスを達成することを目的とする。
サーバとクライアント間の1ラウンドの通信でこれらの目標に対処するp-FClusを提案する。
- 参考スコア(独自算出の注目度): 2.7905216619150344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of data from edge devices has catalyzed the performance of machine learning algorithms. However, the data generated resides at client devices thus there are majorly two challenge faced by traditional machine learning paradigms - centralization of data for training and secondly for most the generated data the class labels are missing and there is very poor incentives to clients to manually label their data owing to high cost and lack of expertise. To overcome these issues, there have been initial attempts to handle unlabelled data in a privacy preserving distributed manner using unsupervised federated data clustering. The goal is partition the data available on clients into $k$ partitions (called clusters) without actual exchange of data. Most of the existing algorithms are highly dependent on data distribution patterns across clients or are computationally expensive. Furthermore, due to presence of skewed nature of data across clients in most of practical scenarios existing models might result in clients suffering high clustering cost making them reluctant to participate in federated process. To this, we are first to introduce the idea of personalization in federated clustering. The goal is achieve balance between achieving lower clustering cost and at same time achieving uniform cost across clients. We propose p-FClus that addresses these goal in a single round of communication between server and clients. We validate the efficacy of p-FClus against variety of federated datasets showcasing it's data independence nature, applicability to any finite $\ell$-norm, while simultaneously achieving lower cost and variance.
- Abstract(参考訳): エッジデバイスからのデータの急速な成長は、機械学習アルゴリズムのパフォーマンスを触媒にした。
しかしながら、生成されたデータはクライアントデバイスに存在するため、従来の機械学習パラダイムが直面する大きな課題が2つある – トレーニング用のデータの集中化と、クラスラベルが欠落している生成データの大部分に対して、高コストと専門知識の欠如により、クライアントが手動でデータをラベル付けするインセンティブが非常に低い。
これらの問題を解決するために、教師なしのフェデレートされたデータクラスタリングを使用して、分散的に保護されたプライバシで、不正なデータを処理するための初期の試みがあった。
目標は、クライアントで利用可能なデータを、実際のデータ交換なしで、$k$パーティション(クラスタと呼ばれる)に分割することだ。
既存のアルゴリズムのほとんどは、クライアント間のデータ分散パターンに依存しているか、あるいは計算コストが高い。
さらに、既存のモデルが現実的なシナリオのほとんどにおいて、クライアントにまたがるデータの歪んだ性質があるため、クライアントは高いクラスタリングコストを被り、フェデレーションプロセスへの参加に消極的になる可能性がある。
そこで,我々はまず,フェデレートクラスタリングにおけるパーソナライゼーションの考え方を紹介する。
目標は、より低いクラスタリングコストを達成することと、同時に、クライアント間で均一なコストを達成することのバランスを達成することです。
サーバとクライアント間の1ラウンドの通信でこれらの目標に対処するp-FClusを提案する。
我々は,p-FClusがデータ独立性を示す様々なフェデレーションデータセットに対して有効であること,有限$$$$-normに適用可能であること,同時にコストと分散の低減を実現していることを検証した。
関連論文リスト
- Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - DCFL: Non-IID awareness Data Condensation aided Federated Learning [0.8158530638728501]
フェデレートラーニング(Federated Learning)とは、特定の量のプライベートデータセットを持つクライアントを活用して、中央サーバがグローバルモデルを反復的にトレーニングする分散学習パラダイムである。
問題は、クライアントサイドのプライベートデータが同一かつ独立して分散されないという事実にある。
本稿では、CKA(Centered Kernel Alignment)法を用いてクライアントをグループに分割し、IID非認識のデータセット凝縮法を用いてクライアントを完全化するDCFLを提案する。
論文 参考訳(メタデータ) (2023-12-21T13:04:24Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Federated learning with incremental clustering for heterogeneous data [0.0]
以前のアプローチでは、クライアントをクラスタ化するには、サーバはクライアントにパラメータを同時に送信する必要がある。
本稿では,FLIC(Federated Learning with Incremental Clustering)を提案する。
我々は,この手法がクライアントを同じデータ分布に従うグループに分割することに成功していることを実証的に示す。
論文 参考訳(メタデータ) (2022-06-17T13:13:03Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Learning with Taskonomy for Non-IID Data [0.0]
タスクノミーによる連合学習を導入する。
ワンオフプロセスでは、サーバーはクライアントに事前に訓練された(そして微調整可能な)エンコーダを提供し、データを遅延表現に圧縮し、データの署名をサーバーに送信します。
サーバは、マニホールド学習を通じてクライアント間のタスク関連性を学び、フェデレーション平均化の一般化を実行する。
論文 参考訳(メタデータ) (2021-03-29T20:47:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。