論文の概要: Cooperative Pseudo Labeling for Unsupervised Federated Classification
- arxiv url: http://arxiv.org/abs/2510.10100v1
- Date: Sat, 11 Oct 2025 08:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.781024
- Title: Cooperative Pseudo Labeling for Unsupervised Federated Classification
- Title(参考訳): 非教師付きフェデレーション分類のための協調擬似ラベル作成
- Authors: Kuangpu Guo, Lijun Sheng, Yongcan Yu, Jian Liang, Zilei Wang, Ran He,
- Abstract要約: Unsupervised Federated Learning (UFL)は、データを共有したりラベル情報にアクセスしたりすることなく、分散クライアント間でグローバルモデルを協調的にトレーニングすることを目的としている。
我々は、新しい方法、 underlinetextbfFederated underlinetextbfCooperative underlinetextbfPseudo underlinetextbfLabeling (textbfFedCoPL)を提案する。
特に、一般的な画像特徴を含む視覚的プロンプトをサーバに集約し、パーソナライズされた知識をコードするテキストプロンプトをローカルに保持する。
- 参考スコア(独自算出の注目度): 62.9387841396335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised Federated Learning (UFL) aims to collaboratively train a global model across distributed clients without sharing data or accessing label information. Previous UFL works have predominantly focused on representation learning and clustering tasks. Recently, vision language models (e.g., CLIP) have gained significant attention for their powerful zero-shot prediction capabilities. Leveraging this advancement, classification problems that were previously infeasible under the UFL paradigm now present promising new opportunities, yet remain largely unexplored. In this paper, we extend UFL to the classification problem with CLIP for the first time and propose a novel method, \underline{\textbf{Fed}}erated \underline{\textbf{Co}}operative \underline{\textbf{P}}seudo \underline{\textbf{L}}abeling (\textbf{FedCoPL}). Specifically, clients estimate and upload their pseudo label distribution, and the server adjusts and redistributes them to avoid global imbalance among classes. Moreover, we introduce a partial prompt aggregation protocol for effective collaboration and personalization. In particular, visual prompts containing general image features are aggregated at the server, while text prompts encoding personalized knowledge are retained locally. Extensive experiments demonstrate the superior performance of our FedCoPL compared to baseline methods. Our code is available at \href{https://github.com/krumpguo/FedCoPL}{https://github.com/krumpguo/FedCoPL}.
- Abstract(参考訳): Unsupervised Federated Learning (UFL)は、データを共有したりラベル情報にアクセスしたりすることなく、分散クライアント間でグローバルモデルを協調的にトレーニングすることを目的としている。
以前のUFLの作業は、主に表現学習とクラスタリングタスクに重点を置いていた。
近年、ビジョン言語モデル(例えば、CLIP)は、強力なゼロショット予測機能に対して大きな注目を集めている。
この進歩を生かして、UFLパラダイムの下で以前は実現不可能だった分類問題は現在、新しい機会を約束しているが、ほとんど探索されていない。
本稿では,UFLをCLIPの分類問題に初めて拡張し,新しい手法である \underline{\textbf{Fed}}erated \underline{\textbf{Co}}operative \underline{\textbf{P}}seudo \underline{\textbf{L}}abeling (\textbf{FedCoPL})を提案する。
具体的には、クライアントは擬似ラベルの配布を見積もってアップロードし、サーバはクラス間のグローバルな不均衡を避けるためにそれらを調整して再配布する。
さらに,効果的なコラボレーションとパーソナライズのための部分的なプロンプトアグリゲーションプロトコルを導入する。
特に、一般的な画像特徴を含む視覚的プロンプトをサーバに集約し、パーソナライズされた知識をコードするテキストプロンプトをローカルに保持する。
大規模な実験により,FedCoPLはベースライン法に比べて優れた性能を示した。
私たちのコードは \href{https://github.com/krumpguo/FedCoPL}{https://github.com/krumpguo/FedCoPL} で利用可能です。
関連論文リスト
- FedAPT: Federated Adversarial Prompt Tuning for Vision-Language Models [97.35577473867296]
Federated Adversarial Prompt Tuning (textbfFedAPT)は、FPTの対向性を高めるために設計された新しい手法である。
この問題に対処するために,テキストプロンプトから視覚的なプロンプトを生成するtextbfclass-awareプロンプトジェネレータを提案する。
複数の画像分類データセットの実験は、対向ロバスト性を改善する上でFedAPTの優位性を示している。
論文 参考訳(メタデータ) (2025-09-03T03:46:35Z) - Curriculum Guided Personalized Subgraph Federated Learning [8.721619913104899]
Subgraph Federated Learning (FL)は、分散プライベートサブグラフ間でグラフニューラルネットワーク(GNN)をトレーニングすることを目的としている。
重み付きモデルアグリゲーションは、類似のサブグラフ特性を持つクライアントからパラメータにより大きな重みを割り当てることで、各ローカルGNNをパーソナライズする。
そこで我々は,Curriculum Guided PersonalsUbgraph Federated Learning (CUFL) という新たなサブグラフFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-30T08:01:36Z) - FedBM: Stealing Knowledge from Pre-trained Language Models for Heterogeneous Federated Learning [33.84409350929454]
We propose a novel framework called Federated Bias eliMinating (FedBM) to get away of local learning bias in heterogeneous learning (FL)。
FedBMはLKCC(Linguistic Knowledge-based Construction)とCGDE(Concept-guided Global Distribution Estimation)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2025-02-24T04:35:48Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Realistic Unsupervised CLIP Fine-tuning with Universal Entropy Optimization [101.08992036691673]
本稿では,未知のクラスにおける配布外サンプルの存在を考慮し,教師なしの微調整シナリオについて考察する。
特に,分布外検出と既知のクラスに関連するインスタンスの認識を同時に強化することに注力する。
我々はUniversal Entropy Optimization(UEO)と呼ばれるシンプルで効率的で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-24T16:47:17Z) - Improving Zero-Shot Generalization for CLIP with Synthesized Prompts [135.4317555866831]
既存のほとんどのメソッドは、実世界のアプリケーションでは保持できない全てのクラスにラベル付きデータを必要とする。
既存の微調整法を改善するために,textbfSynttextbfHestextbfIzed textbfPrompts(textbfSHIP)と呼ばれるプラグアンドプレイ生成手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T15:15:45Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Fusion of Global and Local Knowledge for Personalized Federated Learning [75.20751492913892]
本稿では,低ランクおよびスパース分解を伴うパーソナライズされたモデルについて検討する。
我々はtextbfSparse と textbfRank を混合した2段階学習アルゴリズム textbfFederated Learning を提案する。
適切な仮定の下では、FedSLRによって訓練されたGKRが、少なくとも準線形に正規化問題の定常点に収束できることが示される。
論文 参考訳(メタデータ) (2023-02-21T23:09:45Z) - Learning Across Domains and Devices: Style-Driven Source-Free Domain
Adaptation in Clustered Federated Learning [32.098954477227046]
本稿では,クライアントのデータをラベル付けせず,サーバが事前学習のためにラベル付きデータセットにアクセスする新しいタスクを提案する。
実験の結果,我々のアルゴリズムは既存の手法よりも効率よく新しい課題に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2022-10-05T15:23:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。