論文の概要: Federated Multi-Task Clustering
- arxiv url: http://arxiv.org/abs/2512.22897v1
- Date: Sun, 28 Dec 2025 12:02:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.274421
- Title: Federated Multi-Task Clustering
- Title(参考訳): フェデレートされたマルチタスククラスタリング
- Authors: S. Dai, G. Sun, F. Li, X. Tang, Q. Wang, Y. Cong,
- Abstract要約: 本稿では,Federated Multi-Task Clustering(FMTC)という新しいフレームワークを提案する。
クライアント側パーソナライズされたクラスタリングモジュールとサーバ側テンソル相関モジュールの2つの主要コンポーネントで構成されている。
乗算器の交互方向法に基づく,効率的なプライバシ保護分散アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral clustering has emerged as one of the most effective clustering algorithms due to its superior performance. However, most existing models are designed for centralized settings, rendering them inapplicable in modern decentralized environments. Moreover, current federated learning approaches often suffer from poor generalization performance due to reliance on unreliable pseudo-labels, and fail to capture the latent correlations amongst heterogeneous clients. To tackle these limitations, this paper proposes a novel framework named Federated Multi-Task Clustering (i.e.,FMTC), which intends to learn personalized clustering models for heterogeneous clients while collaboratively leveraging their shared underlying structure in a privacy-preserving manner. More specifically, the FMTC framework is composed of two main components: client-side personalized clustering module, which learns a parameterized mapping model to support robust out-of-sample inference, bypassing the need for unreliable pseudo-labels; and server-side tensorial correlation module, which explicitly captures the shared knowledge across all clients. This is achieved by organizing all client models into a unified tensor and applying a low-rank regularization to discover their common subspace. To solve this joint optimization problem, we derive an efficient, privacy-preserving distributed algorithm based on the Alternating Direction Method of Multipliers, which decomposes the global problem into parallel local updates on clients and an aggregation step on the server. To the end, several extensive experiments on multiple real-world datasets demonstrate that our proposed FMTC framework significantly outperforms various baseline and state-of-the-art federated clustering algorithms.
- Abstract(参考訳): スペクトルクラスタリングは、優れたパフォーマンスのため、最も効果的なクラスタリングアルゴリズムの1つとして登場した。
しかし、既存のモデルのほとんどは集中的な設定のために設計されており、現代の分散環境では適用できない。
さらに、現在のフェデレーション学習アプローチは、信頼できない擬似ラベルに依存するため、一般化性能の低下に悩まされることが多く、異種クライアント間の潜伏相関を捉えることができない。
このような制約に対処するため,フェデレート・マルチタスク・クラスタリング(FMTC)という新しいフレームワークを提案する。
具体的には、FMTCフレームワークは2つの主要なコンポーネントで構成されている。クライアント側パーソナライズされたクラスタリングモジュールは、信頼性の低い擬似ラベルの必要性を回避し、堅牢なサンプル外推論をサポートするためにパラメータ化されたマッピングモデルを学ぶ。
これは、すべてのクライアントモデルを統一テンソルに整理し、ローランクな正規化を適用して共通の部分空間を発見することで達成される。
この共同最適化問題を解決するために,グローバルな問題をクライアント上の並列ローカル更新とサーバ上のアグリゲーションステップに分解するマルチプライヤの交互方向法に基づく,効率的なプライバシ保護分散アルゴリズムを導出する。
最終的に、複数の実世界のデータセットに対する広範な実験により、提案したFMTCフレームワークは、様々なベースラインや最先端のフェデレーションクラスタリングアルゴリズムよりも大幅に優れていることが示された。
関連論文リスト
- You Can Trust Your Clustering Model: A Parameter-free Self-Boosting Plug-in for Deep Clustering [73.48306836608124]
DCBoostはパラメータフリーのプラグインで、現在のディープクラスタリングモデルのグローバルな特徴構造を強化するように設計されている。
本手法は, クラスタリング性能を効果的に向上することを目的としている。
論文 参考訳(メタデータ) (2025-11-26T09:16:36Z) - Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - Parameter-Free Clustering via Self-Supervised Consensus Maximization (Extended Version) [50.41628860536753]
本稿では,SCMax と呼ばれる自己教師型コンセンサス最大化による,新しい完全パラメータフリークラスタリングフレームワークを提案する。
本フレームワークは,階層的なクラスタリングとクラスタ評価を単一の統合プロセスで行う。
論文 参考訳(メタデータ) (2025-11-12T11:17:17Z) - Differentially Private Federated Clustering with Random Rebalancing [9.331231828491461]
フェデレートされたクラスタリングは、類似のクライアントをクラスタにグループ化し、クラスタ毎に1つのモデルを生成することを目的としている。
本稿では,多くのフェデレートクラスタリングアルゴリズムに対する軽量なアドオンとみなすことができるRR-Clusterを提案する。
プライバシノイズのばらつきの低減と、不正な割り当てによるバイアスの増加とのトレードオフを分析する。
論文 参考訳(メタデータ) (2025-08-08T09:56:47Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - Federated cINN Clustering for Accurate Clustered Federated Learning [33.72494731516968]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習に対する革新的なアプローチである。
本稿では,クライアントを複数のグループに頑健にクラスタリングするFederated cINN Clustering Algorithm (FCCA)を提案する。
論文 参考訳(メタデータ) (2023-09-04T10:47:52Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。