論文の概要: Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data
- arxiv url: http://arxiv.org/abs/2310.18815v1
- Date: Sat, 28 Oct 2023 20:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 16:16:27.386087
- Title: Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data
- Title(参考訳): 半教師付きフェデレーション学習の再検討--完全ラベルと完全ラベルのクライアントイメージングデータの共学習法
- Authors: Pramit Saha, Divyanshu Mishra, J. Alison Noble
- Abstract要約: 分離フェデレートラーニング(IsoFed)は、半教師付きフェデレートラーニング(SSFL)に特化して設計されたラーニングスキームである。
本稿では,教師付きモデルと半教師付きモデルの簡易な平均化を回避し,SSFLに特化して設計した新しい学習手法を提案する。
特に、我々のトレーニングアプローチは、(a)ラベル付きおよびラベルなしのクライアントモデルの独立したアグリゲーションと、(b)すべてのクライアントで独立したグローバルモデルのローカルな自己教師付き事前トレーニングという2つの部分で構成されています。
- 参考スコア(独自算出の注目度): 6.322831694506287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The most challenging, yet practical, setting of semi-supervised federated
learning (SSFL) is where a few clients have fully labeled data whereas the
other clients have fully unlabeled data. This is particularly common in
healthcare settings where collaborating partners (typically hospitals) may have
images but not annotations. The bottleneck in this setting is the joint
training of labeled and unlabeled clients as the objective function for each
client varies based on the availability of labels. This paper investigates an
alternative way for effective training with labeled and unlabeled clients in a
federated setting. We propose a novel learning scheme specifically designed for
SSFL which we call Isolated Federated Learning (IsoFed) that circumvents the
problem by avoiding simple averaging of supervised and semi-supervised models
together. In particular, our training approach consists of two parts - (a)
isolated aggregation of labeled and unlabeled client models, and (b) local
self-supervised pretraining of isolated global models in all clients. We
evaluate our model performance on medical image datasets of four different
modalities publicly available within the biomedical image classification
benchmark MedMNIST. We further vary the proportion of labeled clients and the
degree of heterogeneity to demonstrate the effectiveness of the proposed method
under varied experimental settings.
- Abstract(参考訳): 半教師付きフェデレーション学習(ssfl: semi-supervised federated learning)の最も難しい、しかし実用的な設定は、少数のクライアントが完全なラベル付きデータを持ち、他のクライアントが完全にラベル付きデータを持っていることである。
これは、協力するパートナー(典型的には病院)が画像を持っているがアノテーションがない医療環境では特に一般的である。
この設定におけるボトルネックは、ラベル付けされたクライアントとラベル付けされていないクライアントの共同トレーニングである。
本稿では,ラベル付きおよびラベルなしのクライアントをフェデレートした環境で効果的にトレーニングする方法を検討する。
本稿では,教師付きモデルと半教師付きモデルの単純な平均化を回避し,問題を回避できるssfl専用に設計された新しい学習方式を提案する。
特に、トレーニングアプローチは2つの部分で構成されています。
(a)ラベル付き及びラベルなしクライアントモデルの独立した集約、及び
(b)全クライアントにおける孤立グローバルモデルのローカル自己管理事前学習
バイオメディカル画像分類ベンチマークMedMNISTで公開されている4つのモードの医用画像データセットのモデル性能を評価する。
さらに,提案手法の有効性を示すために,ラベル付きクライアントの比率と不均一性の程度も異なる。
関連論文リスト
- Learning Unlabeled Clients Divergence via Anchor Model Aggregation for Federated Semi-supervised Learning [10.282711631100845]
SemiAnAggはアンカーモデルを通じて未ラベルのクライアントコントリビューションを学習する。
SemiAnAggは4つの広く使用されているFedSemiベンチマークにおいて、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T20:50:40Z) - Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - FCA: Taming Long-tailed Federated Medical Image Classification by
Classifier Anchoring [26.07488492998861]
フェデレートラーニング(Federated Learning)は、データを共有することなく、ディープモデルを協調的にトレーニングすることを可能にする。
我々は、各クライアントにパーソナライズされた分類器を追加して、フェデレーションモデルのガイドとデバイアスを行うことにより、フェデレーション分類器アンカー(FCA)を提案する。
FCAは、連合型長い尾状皮膚病変の分類と頭蓋内出血の分類において、大きなマージンを有する最先端の方法よりも優れている。
論文 参考訳(メタデータ) (2023-05-01T09:36:48Z) - Dynamic Bank Learning for Semi-supervised Federated Image Diagnosis with
Class Imbalance [65.61909544178603]
クラス不均衡半教師付きFL(imFed-Semi)の実用的かつ困難な問題について検討する。
このImFed-Semi問題は、クラス比例情報を利用してクライアントトレーニングを改善する新しい動的銀行学習方式によって解決される。
25,000個のCTスライスによる頭蓋内出血診断と10,015個の皮膚内視鏡画像による皮膚病変診断の2つの公開実世界の医療データセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-27T06:51:48Z) - FedMix: Mixed Supervised Federated Learning for Medical Image
Segmentation [29.728635583886046]
混合画像ラベルに基づく医用画像セグメンテーションのためのラベルに依存しない統合学習フレームワークであるFedMixを提案する。
FedMixでは、各クライアントが、すべての利用可能なラベル付きデータの統合と有効利用によって、フェデレートされたモデルを更新する。
既存の手法と比較して、FedMixは単一のレベルの画像監視の制約を突破するだけでなく、各ローカルクライアントの集約重みを動的に調整できる。
論文 参考訳(メタデータ) (2022-05-04T01:17:53Z) - SemiFed: Semi-supervised Federated Learning with Consistency and
Pseudo-Labeling [14.737638416823772]
フェデレートラーニングは、携帯電話や組織などの複数のクライアントが共同で、予測のための共有モデルを学ぶことを可能にする。
本研究では、各クライアントのデータサンプルを部分的にラベル付けするクロスサイロ・フェデレーション学習の新しいシナリオに焦点を当てる。
そこで我々は,半教師付き学習において,一貫性の正規化と擬似ラベル付けという2つの主要なアプローチを統一する,SemiFedと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-21T01:14:27Z) - Federated Semi-supervised Medical Image Classification via Inter-client
Relation Matching [58.26619456972598]
フェデレートラーニング(FL)は、ディープ・ネットワークのトレーニングのために、分散医療機関とのコラボレーションで人気が高まっている。
本報告では,実践的かつ困難なFL問題であるtextitFederated Semi-supervised Learning (FSSL)について検討する。
本稿では, 従来の整合性正規化機構を改良し, クライアント間関係マッチング方式を提案する。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。