論文の概要: Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning
- arxiv url: http://arxiv.org/abs/2006.12097v3
- Date: Mon, 29 Mar 2021 08:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:55:27.046831
- Title: Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning
- Title(参考訳): クライアント間一貫性と解離学習による半教師付き学習
- Authors: Wonyong Jeong, Jaehong Yoon, Eunho Yang, and Sung Ju Hwang
- Abstract要約: ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 78.88007892742438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While existing federated learning approaches mostly require that clients have
fully-labeled data to train on, in realistic settings, data obtained at the
client-side often comes without any accompanying labels. Such deficiency of
labels may result from either high labeling cost, or difficulty of annotation
due to the requirement of expert knowledge. Thus the private data at each
client may be either partly labeled, or completely unlabeled with labeled data
being available only at the server, which leads us to a new practical federated
learning problem, namely Federated Semi-Supervised Learning (FSSL). In this
work, we study two essential scenarios of FSSL based on the location of the
labeled data. The first scenario considers a conventional case where clients
have both labeled and unlabeled data (labels-at-client), and the second
scenario considers a more challenging case, where the labeled data is only
available at the server (labels-at-server). We then propose a novel method to
tackle the problems, which we refer to as Federated Matching (FedMatch).
FedMatch improves upon naive combinations of federated learning and
semi-supervised learning approaches with a new inter-client consistency loss
and decomposition of the parameters for disjoint learning on labeled and
unlabeled data. Through extensive experimental validation of our method in the
two different scenarios, we show that our method outperforms both local
semi-supervised learning and baselines which naively combine federated learning
with semi-supervised learning. The code is available at
https://github.com/wyjeong/FedMatch.
- Abstract(参考訳): 既存の連合学習アプローチでは、クライアントがリアルな環境でトレーニングするための完全なラベル付きデータを必要とするが、クライアント側で取得したデータはラベルを伴わないことが多い。
このようなラベルの欠如は、高いラベル付けコストまたは専門家の知識の要求によるアノテーションの難しさに起因する可能性がある。
したがって、各クライアントのプライベートデータは、部分的にラベル付けされているか、サーバでのみ利用可能なラベル付きデータで完全にラベル付けされていない場合があり、これは、フェデレーション半教師付き学習(fssl)と呼ばれる新しい実用的な連合学習問題につながる。
本研究では,ラベル付きデータの位置に基づくFSSLの2つの重要なシナリオについて検討する。
第1のシナリオは、クライアントがラベル付きデータとラベル付きデータの両方(ラベル付きクライアント)を持つ従来のケースを考慮し、第2のシナリオでは、ラベル付きデータがサーバ(ラベル付きサーバ)でのみ利用可能となる、より困難なケースを考えます。
次に,フェデレーションマッチング(federated matching, fedmatch)と呼ぶ問題に対処する新しい手法を提案する。
FedMatchは、ラベル付きおよびラベルなしデータ上での解離学習のためのパラメータの新たなクライアント間一貫性損失と分解による、フェデレート学習と半教師付き学習の単純な組み合わせを改善する。
提案手法は,2つの異なるシナリオにおける実験的な検証を通じて,局所的な半教師付き学習と,半教師付き学習と相互に組み合わせたベースラインの両方に優れることを示す。
コードはhttps://github.com/wyjeong/FedMatch.comで入手できる。
関連論文リスト
- (FL)$^2$: Overcoming Few Labels in Federated Semi-Supervised Learning [4.803231218533992]
Federated Learning(FL)は、クライアントのプライバシに敏感なデータを保存しながら、正確なグローバルモデルをトレーニングする分散機械学習フレームワークである。
ほとんどのFLアプローチは、クライアントがラベル付きデータを持っていると仮定するが、実際にはそうではないことが多い。
本稿では、シャープネスを意識した整合性正規化を用いたラベルなしクライアントのための堅牢なトレーニング手法である$(FL)2$を提案する。
論文 参考訳(メタデータ) (2024-10-30T17:15:02Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Federated Semi-Supervised Learning with Annotation Heterogeneity [57.12560313403097]
Heterogenely Annotated Semi-Supervised LEarning (HASSLE) という新しいフレームワークを提案する。
ラベル付きデータとラベルなしデータで個別にトレーニングされた2つのモデルを持つデュアルモデルフレームワークである。
デュアルモデルは、異なるクライアントにわたる両方のタイプのデータから暗黙的に学習することができるが、各デュアルモデルは、単一のタイプのデータに対してのみローカルにトレーニングされる。
論文 参考訳(メタデータ) (2023-03-04T16:04:49Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - Federated Semi-Supervised Learning with Class Distribution Mismatch [34.46190258291223]
フェデレート半教師付き学習(Fed-SSL)はラベル付きデータとラベルなしデータの両方を完全に活用するための魅力的なソリューションである。
我々は、Fed-SSLにおけるクラス分散ミスマッチ問題を効果的に緩和できる2つの適切な正規化項を導入する。
我々は、分散低減と正規化平均化技術を活用して、新しいFed-SSLアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-29T14:18:20Z) - SemiFed: Semi-supervised Federated Learning with Consistency and
Pseudo-Labeling [14.737638416823772]
フェデレートラーニングは、携帯電話や組織などの複数のクライアントが共同で、予測のための共有モデルを学ぶことを可能にする。
本研究では、各クライアントのデータサンプルを部分的にラベル付けするクロスサイロ・フェデレーション学習の新しいシナリオに焦点を当てる。
そこで我々は,半教師付き学習において,一貫性の正規化と擬似ラベル付けという2つの主要なアプローチを統一する,SemiFedと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-21T01:14:27Z) - Federated Semi-supervised Medical Image Classification via Inter-client
Relation Matching [58.26619456972598]
フェデレートラーニング(FL)は、ディープ・ネットワークのトレーニングのために、分散医療機関とのコラボレーションで人気が高まっている。
本報告では,実践的かつ困難なFL問題であるtextitFederated Semi-supervised Learning (FSSL)について検討する。
本稿では, 従来の整合性正規化機構を改良し, クライアント間関係マッチング方式を提案する。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。