論文の概要: FedCon: A Contrastive Framework for Federated Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2109.04533v1
- Date: Thu, 9 Sep 2021 19:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:25:27.620827
- Title: FedCon: A Contrastive Framework for Federated Semi-Supervised Learning
- Title(参考訳): FedCon:Federated Semi-Supervised Learningのためのコントラストフレームワーク
- Authors: Zewei Long, Jiaqi Wang, Yaqing Wang, Houping Xiao, Fenglong Ma
- Abstract要約: Federated Semi-Supervised Learning (FedSSL)は、学術と工業の両方の研究者から注目を集めている。
FedConはFedSSLに新たな学習パラダイム、すなわちコントラクト学習を導入する。
- 参考スコア(独自算出の注目度): 26.520767887801142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Semi-Supervised Learning (FedSSL) has gained rising attention from
both academic and industrial researchers, due to its unique characteristics of
co-training machine learning models with isolated yet unlabeled data. Most
existing FedSSL methods focus on the classical scenario, i.e, the labeled and
unlabeled data are stored at the client side. However, in real world
applications, client users may not provide labels without any incentive. Thus,
the scenario of labels at the server side is more practical. Since unlabeled
data and labeled data are decoupled, most existing FedSSL approaches may fail
to deal with such a scenario. To overcome this problem, in this paper, we
propose FedCon, which introduces a new learning paradigm, i.e., contractive
learning, to FedSSL. Experimental results on three datasets show that FedCon
achieves the best performance with the contractive framework compared with
state-of-the-art baselines under both IID and Non-IID settings. Besides,
ablation studies demonstrate the characteristics of the proposed FedCon
framework.
- Abstract(参考訳): Federated Semi-Supervised Learning (FedSSL)は、独立してラベル付けされていないデータを持つ機械学習モデルの共同トレーニングの特徴から、学術と工業の両方の研究者から注目を集めている。
既存のfeedsslメソッドの多くは、従来のシナリオ、すなわちラベル付きデータとラベルなしデータはクライアント側に格納される。
しかし、現実世界のアプリケーションでは、クライアントユーザはインセンティブなしでラベルを提供できない。
したがって、サーバ側のラベルのシナリオはより実用的である。
ラベル付きデータとラベル付きデータは分離されているため、既存のFedSSLアプローチのほとんどはそのようなシナリオに対処できない可能性がある。
本稿では、この問題を解決するために、FedSSLに新たな学習パラダイム、すなわち契約学習を導入するFedConを提案する。
3つのデータセットの実験結果から、FedConは、IIDおよび非IID設定の最先端ベースラインと比較して、契約型フレームワークで最高のパフォーマンスを達成することが示された。
さらに、アブレーション研究は、提案したFedConフレームワークの特徴を示している。
関連論文リスト
- (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - FedAnchor: Enhancing Federated Semi-Supervised Learning with Label
Contrastive Loss for Unlabeled Clients [19.3885479917635]
Federated Learning(FL)は、デバイス間で共有されたグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
本稿では,サーバ上のラベル付きアンカーデータにのみ訓練された分類ヘッドと組み合わせて,アンカーヘッドと呼ばれるユニークな二重ヘッド構造を導入する,革新的なFSSL手法であるFedAnchorを提案する。
提案手法は, 高信頼度モデル予測サンプルに基づいて, 疑似ラベル技術に係わる検証バイアスと過度に適合する問題を緩和する。
論文 参考訳(メタデータ) (2024-02-15T18:48:21Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - Robust Deep Semi-Supervised Learning: A Brief Introduction [63.09703308309176]
半教師付き学習(SSL)は、ラベルが不十分なときにラベル付きデータを活用することにより、学習性能を向上させることを目的としている。
ディープモデルによるSSLは、標準ベンチマークタスクで成功したことが証明されている。
しかし、それらは現実世界のアプリケーションにおける様々な堅牢性に対する脅威に対して依然として脆弱である。
論文 参考訳(メタデータ) (2022-02-12T04:16:41Z) - FedTriNet: A Pseudo Labeling Method with Three Players for Federated
Semi-supervised Learning [24.720014822365684]
本稿では,FedTriNetという新しいフェデレーション付き半教師付き学習手法を提案する。
特に,3つのネットワークと動的品質制御機構を用いて,ラベルのないデータに対して高品質な擬似ラベルを生成することを提案する。
3つの公開データセットの実験結果は、提案されたFedTriNetが最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2021-09-12T21:00:25Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。