論文の概要: One-Shot Federated Clustering of Non-Independent Completely Distributed Data
- arxiv url: http://arxiv.org/abs/2601.17512v1
- Date: Sat, 24 Jan 2026 16:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.896896
- Title: One-Shot Federated Clustering of Non-Independent Completely Distributed Data
- Title(参考訳): 非独立完全分散データのワンショットフェデレーションクラスタリング
- Authors: Yiqun Zhang, Shenghong Cai, Zihua Yang, Sen Feng, Yuzhu Ji, Haijun Zhang,
- Abstract要約: Unsupervised Federated Clustering (FC) は、複雑な分散データからパターン知識を探索する手段として、ますます人気が高まっている。
本稿では,既存のFC手法のクラスタリング性能のボトルネックとなる非IID現象を明らかにする。
上記の課題に対処するため,GOLD(Global Oriented Local Distribution Learning)という新たなフレームワークが提案されている。
- 参考スコア(独自算出の注目度): 20.793249661397162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) that extracts data knowledge while protecting the privacy of multiple clients has achieved remarkable results in distributed privacy-preserving IoT systems, including smart traffic flow monitoring, smart grid load balancing, and so on. Since most data collected from edge devices are unlabeled, unsupervised Federated Clustering (FC) is becoming increasingly popular for exploring pattern knowledge from complex distributed data. However, due to the lack of label guidance, the common Non-Independent and Identically Distributed (Non-IID) issue of clients have greatly challenged FC by posing the following problems: How to fuse pattern knowledge (i.e., cluster distribution) from Non-IID clients; How are the cluster distributions among clients related; and How does this relationship connect with the global knowledge fusion? In this paper, a more tricky but overlooked phenomenon in Non-IID is revealed, which bottlenecks the clustering performance of the existing FC approaches. That is, different clients could fragment a cluster, and accordingly, a more generalized Non-IID concept, i.e., Non-ICD (Non-Independent Completely Distributed), is derived. To tackle the above FC challenges, a new framework named GOLD (Global Oriented Local Distribution Learning) is proposed. GOLD first finely explores the potential incomplete local cluster distributions of clients, then uploads the distribution summarization to the server for global fusion, and finally performs local cluster enhancement under the guidance of the global distribution. Extensive experiments, including significance tests, ablation studies, scalability evaluations, qualitative results, etc., have been conducted to show the superiority of GOLD.
- Abstract(参考訳): 複数のクライアントのプライバシを保護しながらデータ知識を抽出するフェデレートラーニング(FL)は、スマートトラフィックフロー監視やスマートグリッドロードバランシングなど、分散プライバシ保護IoTシステムにおいて、大きな成果を上げている。
エッジデバイスから収集されるほとんどのデータはラベル付けされていないため、複雑な分散データからパターン知識を探索するために、教師なしのフェデレートクラスタリング(FC)がますます人気を集めている。
しかし、ラベルガイダンスの欠如により、クライアントの共通する非独立分散(Non-IID)問題は、例えば、非IIDクライアントからパターン知識(すなわちクラスタ分布)をどう融合させるか、クライアント間のクラスタ分布はどのように関連しているのか、そして、この関係はグローバル知識融合とどのように結びつくのか、FCに大きく異議を唱えている。
本稿では,既存のFC手法のクラスタリング性能のボトルネックとなる非IID現象について述べる。
すなわち、異なるクライアントがクラスタを断片化でき、したがってより一般化された非IID概念、すなわち非ICD(非独立完全分散)が導出される。
上記の課題に対処するため,GOLD(Global Oriented Local Distribution Learning)という新しいフレームワークが提案されている。
GOLDはまず、クライアントの潜在的な不完全なローカルクラスタ分布を詳細に探索し、次に、グローバルフュージョンのために配信要約をサーバにアップロードし、最終的にグローバルディストリビューションのガイダンスの下でローカルクラスタ拡張を行う。
GOLDの優位性を示すために, 重要度試験, アブレーション試験, スケーラビリティ評価, 質的結果等を含む大規模な実験を行った。
関連論文リスト
- One-Shot Hierarchical Federated Clustering [51.490181220883905]
本稿では,効率的な階層型クラスタリングフレームワークを提案する。
クライアント-エンドの分散探索とサーバ-エンドの分散アグリゲーションを実行する。
クライアント間の複雑なクラスタ分布を効率的に探索できることが判明した。
論文 参考訳(メタデータ) (2026-01-10T02:58:33Z) - Asynchronous Federated Clustering with Unknown Number of Clusters [35.35189341303029]
フェデレートクラスタリング(FC)は、ラベルのない非独立なIdentically Distributed(非IID)データから知識をマイニングするために重要である。
本稿では,非同期クラスタ学習(AFCL)手法を提案する。
過剰な数のシードポイントを学習媒体としてクライアントに分散し、それらをクライアント全体にコーディネートしてコンセンサスを形成する。
論文 参考訳(メタデータ) (2024-12-29T03:56:32Z) - Federated Deep Multi-View Clustering with Global Self-Supervision [51.639891178519136]
フェデレートされたマルチビュークラスタリングは、複数のデバイスに分散したデータからグローバルクラスタリングモデルを学習する可能性がある。
この設定では、ラベル情報は未知であり、データのプライバシを保持する必要がある。
本稿では,複数のクライアントから補完的なクラスタ構造をマイニングできる,新しい多視点クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-24T17:07:01Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - Federated Generalized Category Discovery [68.35420359523329]
一般カテゴリー発見(GCD)は、未知のクラスからラベルのないサンプルをグループ化することを目的としている。
地域社会における近年の分権化の傾向に対応するため,フェデレーションGCD(Fed-GCD)という,実践的かつ困難な課題を導入する。
Fed-GCDの目標は、プライバシ保護された制約の下で、クライアントのコラボレーションによって汎用的なGCDモデルをトレーニングすることである。
論文 参考訳(メタデータ) (2023-05-23T14:27:41Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。