論文の概要: CATCHFed: Efficient Unlabeled Data Utilization for Semi-Supervised Federated Learning in Limited Labels Environments
- arxiv url: http://arxiv.org/abs/2511.11778v2
- Date: Wed, 19 Nov 2025 04:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 13:41:21.085099
- Title: CATCHFed: Efficient Unlabeled Data Utilization for Semi-Supervised Federated Learning in Limited Labels Environments
- Title(参考訳): CATCHFed:限定ラベル環境における半教師付きフェデレーション学習のための効率的な未ラベルデータ利用
- Authors: Byoungjun Park, Pedro Porto Buarque de Gusmão, Dongjin Ji, Minhoe Kim,
- Abstract要約: フェデレートラーニング(Federated Learning)は、データプライバシを保持しながら分散クライアントリソースを活用する、有望なパラダイムである。
既存のFLアプローチの多くは、クライアントがラベル付きデータを持っていると仮定しているが、現実のシナリオでは、クライアント側のラベルは利用できないことが多い。
クラス難易度を考慮したクライアント対応適応しきい値,疑似ラベル品質向上のためのハイブリッドしきい値を導入し,非擬似ラベルデータを用いて整合正則化を行うtextitCATCHFedを提案する。
- 参考スコア(独自算出の注目度): 3.2805451821208234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a promising paradigm that utilizes distributed client resources while preserving data privacy. Most existing FL approaches assume clients possess labeled data, however, in real-world scenarios, client-side labels are often unavailable. Semi-supervised Federated learning, where only the server holds labeled data, addresses this issue. However, it experiences significant performance degradation as the number of labeled data decreases. To tackle this problem, we propose \textit{CATCHFed}, which introduces client-aware adaptive thresholds considering class difficulty, hybrid thresholds to enhance pseudo-label quality, and utilizes unpseudo-labeled data for consistency regularization. Extensive experiments across various datasets and configurations demonstrate that CATCHFed effectively leverages unlabeled client data, achieving superior performance even in extremely limited-label settings.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、データプライバシを保持しながら分散クライアントリソースを活用する、有望なパラダイムである。
既存のFLアプローチの多くは、クライアントがラベル付きデータを持っていると仮定しているが、現実のシナリオでは、クライアント側のラベルは利用できないことが多い。
サーバだけがラベル付きデータを保持する半教師付きフェデレーション学習は、この問題に対処する。
しかし、ラベル付きデータの数が減少するにつれて、性能が著しく低下する。
この問題に対処するため,クラス難易度を考慮したクライアント対応適応しきい値,疑似ラベル品質向上のためのハイブリッドしきい値を導入し,整合性正則化に非擬似ラベルデータを利用する「textit{CATCHFed}」を提案する。
さまざまなデータセットや設定にわたる大規模な実験により、CATCHFedはラベルのないクライアントデータを効果的に活用し、非常に限られたラベル設定でも優れたパフォーマンスを実現している。
関連論文リスト
- Robust Semi-Supervised Learning in Open Environments [51.741549825533816]
半教師付き学習(SSL)は、ラベルが不足しているときにラベルのないデータを活用することで、パフォーマンスを向上させることを目的としている。
不整合なラベル付きデータを利用すると、大幅な性能劣化が発生することが報告されている。
本稿では,SSLにおけるラベル,特徴,データ分散の不整合に関する技術に焦点をあて,この研究の展開を簡潔に紹介する。
論文 参考訳(メタデータ) (2024-12-24T08:13:01Z) - Boosting Federated Learning with FedEntOpt: Mitigating Label Skew by Entropy-Based Client Selection [13.851391819710367]
ディープラーニングドメインは通常、最適なパフォーマンスのために大量のデータを必要とします。
FedEntOptは、ラベル配布スキューによるパフォーマンスの問題を軽減するように設計されている。
低い参加率とクライアントのドロップアウトのシナリオでは、堅牢で優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-02T13:31:36Z) - (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z) - On Leveraging Unlabeled Data for Concurrent Positive-Unlabeled Classification and Robust Generation [72.062661402124]
余分なデータに晒された場合,PU分類と条件生成を共同で目標とする新たなトレーニングフレームワークを提案する。
我々は,CNI-CGANの最適条件を実証し,多様なデータセットについて広範な評価を行った。
論文 参考訳(メタデータ) (2020-06-14T08:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。