論文の概要: FedProp: Cross-client Label Propagation for Federated Semi-supervised
Learning
- arxiv url: http://arxiv.org/abs/2210.06434v1
- Date: Wed, 12 Oct 2022 17:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:32:44.641965
- Title: FedProp: Cross-client Label Propagation for Federated Semi-supervised
Learning
- Title(参考訳): FedProp:フェデレートセミ教師付き学習のためのクロスクライアントラベルの伝播
- Authors: Jonathan Scott, Michelle Yeo, Christoph H. Lampert
- Abstract要約: フェデレーテッド・ラーニング(FL)は、複数のクライアントが、他の参加者とデータを共有する必要のない方法で、機械学習モデルを共同でトレーニングすることを可能にする。
我々は、半教師付き学習(SSL)に対する多様体ベースのアプローチに従う新しいFedPropを提案する。
複数のクライアントのデータからデータ多様体を共同で推定し、クロスクライアントラベルの伝搬を用いて擬似ラベルを計算する。
- 参考スコア(独自算出の注目度): 24.684519095498985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) allows multiple clients to jointly train a machine
learning model in such a way that no client has to share their data with any
other participating party. In the supervised setting, where all client data is
fully labeled, FL has been widely adopted for learning tasks that require data
privacy. However, it is an ongoing research question how to best perform
federated learning in a semi-supervised setting, where the clients possess data
that is only partially labeled or even completely unlabeled. In this work, we
propose a new method, FedProp, that follows a manifold-based approach to
semi-supervised learning (SSL). It estimates the data manifold jointly from the
data of multiple clients and computes pseudo-labels using cross-client label
propagation. To avoid that clients have to share their data with anyone,
FedProp employs two cryptographically secure yet highly efficient protocols:
secure Hamming distance computation and secure summation. Experiments on three
standard benchmarks show that FedProp achieves higher classification accuracy
than previous federated SSL methods. Furthermore, as a pseudolabel-based
technique, FedProp is complementary to other federated SSL approaches, in
particular consistency-based ones. We demonstrate experimentally that further
accuracy gains are possible by combining both.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、複数のクライアントが、他の参加者とデータを共有する必要のない方法で、機械学習モデルを共同でトレーニングすることを可能にする。
すべてのクライアントデータが完全にラベル付けされている教師付き設定では、データプライバシを必要とする学習タスクにflが広く採用されている。
しかし、クライアントが部分的にラベル付けされているか、完全にラベル付けされていないデータを持っている半教師付き環境で、フェデレーション学習をいかにうまく行うかは、現在進行中の研究課題である。
本稿では,半教師付き学習(SSL)に対する多様体に基づくアプローチに従う新しい手法であるFedPropを提案する。
複数のクライアントのデータから共同でデータ多様体を推定し、クロスクライアントラベル伝播を用いて擬似ラベルを計算する。
クライアントがデータを誰とでも共有しなければならないことを避けるため、FedPropは2つの暗号化的にセキュアで高効率なプロトコルを使用している。
3つの標準ベンチマーク実験により、FedPropは以前のフェデレーションSSLメソッドよりも高い分類精度を達成することが示された。
さらに、擬似ラベルベースの技術として、feedpropは、他のフェデレーションsslアプローチ、特に一貫性に基づくアプローチを補完する。
両者を組み合わせることで,さらなる精度向上が可能であることを示す。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Learning from Label Proportions: Bootstrapping Supervised Learners via Belief Propagation [18.57840057487926]
LLP(Learning from Label Proportions)は、トレーニング中にバッグと呼ばれるインスタンスのグループに対して、アグリゲートレベルのラベルしか利用できない学習問題である。
この設定は、プライバシー上の配慮から、広告や医療などの領域で発生する。
本稿では,この問題に対して,反復的に2つの主要なステップを実行する新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T06:09:26Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Enhancing Label Correlation Feedback in Multi-Label Text Classification
via Multi-Task Learning [6.1538971100140145]
ラベル相関フィードバックを高めるために,マルチタスク学習を用いた新しい手法を提案する。
本稿では,ラベル相関学習を強化するための2つの補助ラベル共起予測タスクを提案する。
論文 参考訳(メタデータ) (2021-06-06T12:26:14Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Cross-domain Speech Recognition with Unsupervised Character-level
Distribution Matching [60.8427677151492]
2つの領域における各文字間の微粒化適応を行うための文字レベルの分布マッチング手法であるCMatchを提案する。
Libri-Adaptデータセットを用いた実験の結果,提案手法はクロスデバイスとクロス環境の両方で14.39%,16.50%の単語誤り率(WER)を低減できることがわかった。
論文 参考訳(メタデータ) (2021-04-15T14:36:54Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。