論文の概要: Towards Federated Clustering: A Federated Fuzzy $c$-Means Algorithm
(FFCM)
- arxiv url: http://arxiv.org/abs/2201.07316v1
- Date: Tue, 18 Jan 2022 21:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 01:30:52.058649
- Title: Towards Federated Clustering: A Federated Fuzzy $c$-Means Algorithm
(FFCM)
- Title(参考訳): フェデレートクラスタリングに向けて:フェデレートファジィ$c$-meansアルゴリズム(ffcm)
- Authors: Morris Stallmann and Anna Wilbik
- Abstract要約: Federated Learning(FL)は、分散データを持つ複数のパーティが共同で機械学習(ML)モデルをトレーニングする環境である。
我々は、この研究領域が自分自身にどのように関心を持つか、また、非独立に特定された分散データ(すなわち、d.d.)のような問題にどのように対処するかを説明する。
本研究では,グローバルクラスタセンターを計算し,その挙動を数値実験により評価する2つの手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a setting where multiple parties with distributed
data collaborate in training a joint Machine Learning (ML) model while keeping
all data local at the parties. Federated clustering is an area of research
within FL that is concerned with grouping together data that is globally
similar while keeping all data local. We describe how this area of research can
be of interest in itself, or how it helps addressing issues like
non-independently-identically-distributed (i.i.d.) data in supervised FL
frameworks. The focus of this work, however, is an extension of the federated
fuzzy $c$-means algorithm to the FL setting (FFCM) as a contribution towards
federated clustering. We propose two methods to calculate global cluster
centers and evaluate their behaviour through challenging numerical experiments.
We observe that one of the methods is able to identify good global clusters
even in challenging scenarios, but also acknowledge that many challenges remain
open.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、分散データを持つ複数のパーティが共同で機械学習(ML)モデルをトレーニングし、すべてのデータをパーティにローカルに保持する環境である。
フェデレーションクラスタリング(Federated Clustering)は、すべてのデータをローカルに保ちながら、グローバルに類似したデータをグループ化する、FL内の研究分野である。
我々は、この研究領域がそれ自体にどのような関心を持つことができるのか、また、監視されたFLフレームワークにおける非独立に識別された(d.d.)データのような問題にどのように対処するかを説明する。
しかし、この研究の焦点は、フェデレーションクラスタリングへの貢献として、フェデレーションされたファジィ$c$-meansアルゴリズムをfl設定(ffcm)に拡張することである。
本研究では,グローバルクラスタセンターを計算し,その挙動を評価するための2つの手法を提案する。
この手法の1つは、挑戦的なシナリオであっても優れたグローバルクラスタを識別できるが、多くの課題が未解決であることを認めている。
関連論文リスト
- A Framework for testing Federated Learning algorithms using an edge-like environment [0.0]
フェデレーテッド・ラーニング(FL)は、多くのクライアントが、データをプライベートかつ分散化しながら、単一の集中型モデルを協調的にトレーニングする機械学習パラダイムである。
グローバル集中型モデルアグリゲーションにおける局所モデルの貢献を正確に評価するのは簡単ではない。
これはFLにおける大きな挑戦の例であり、一般にデータ不均衡またはクラス不均衡として知られている。
本研究では,FLアルゴリズムをより容易かつスケーラブルに評価するためのフレームワークを提案し,実装した。
論文 参考訳(メタデータ) (2024-07-17T19:52:53Z) - Federated Learning with Bilateral Curation for Partially Class-Disjoint Data [47.55180390473258]
部分的なクラス分離データ(PCDD)は、一般的なが未探索のデータ生成であり、フェデレートされたアルゴリズムの性能に深刻な挑戦をする。
我々はFedGELAと呼ばれる新しい手法を提案し、ETFは局所的に個人分布に適応しながら、単純なETFとしてグローバルに固定されている。
我々は、FedGELAが有望なパフォーマンスを達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:34:44Z) - Dynamically Weighted Federated k-Means [0.0]
フェデレートされたクラスタリングにより、複数のデータソースが協力してデータをクラスタリングし、分散化とプライバシ保護を維持できる。
我々は,ロイドのk-meansクラスタリング法に基づいて,動的に重み付けされたk-means (DWF k-means) という新しいクラスタリングアルゴリズムを提案する。
我々は、クラスタリングスコア、精度、およびv尺度の観点から、アルゴリズムの性能を評価するために、複数のデータセットとデータ分散設定の実験を行う。
論文 参考訳(メタデータ) (2023-10-23T12:28:21Z) - Find Your Optimal Assignments On-the-fly: A Holistic Framework for
Clustered Federated Learning [5.045379017315639]
Federated Learning(FL)は、エッジデバイスにデータを格納することでクライアントのプライバシを保護する、新興の分散機械学習アプローチである。
近年の研究では、異なるクラスタに分散シフトしたクライアントをグループ化することで、FLにおけるクライアントの不均一性に取り組むためのソリューションとしてクラスタリングが提案されている。
本稿では,現在のクラスタリングFL手法を包括的に検討し,既存のアプローチを包括・拡張するための4層フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T04:23:11Z) - Federated K-means Clustering [0.0]
フェデレートラーニング(Federated Learning)は、データをプールすることなく、機械学習目的で分散データセットを使用することを可能にする技術である。
この研究は、K平均クラスタリングを連合的に実装するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-02T13:32:00Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。