論文の概要: FUNAvg: Federated Uncertainty Weighted Averaging for Datasets with Diverse Labels
- arxiv url: http://arxiv.org/abs/2407.07488v1
- Date: Wed, 10 Jul 2024 09:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:11:48.825421
- Title: FUNAvg: Federated Uncertainty Weighted Averaging for Datasets with Diverse Labels
- Title(参考訳): FUNAvg: ラベルの異なるデータセットに対するフェデレートされた不確かさの重み付け
- Authors: Malte Tölle, Fernando Navarro, Sebastian Eble, Ivo Wolf, Bjoern Menze, Sandy Engelhardt,
- Abstract要約: 我々は,関節背骨を連合的に学習することを提案する。
異なるセグメンテーションヘッドは、個々のクライアントのラベルでのみ訓練されているが、それぞれのサイトに存在しない他のラベルに関する情報も学習している。
FUNAvgと呼ばれるこの手法では、平均して同じデータセット上でトレーニングされ、テストされたモデルと同等です。
- 参考スコア(独自算出の注目度): 37.20677220716839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is one popular paradigm to train a joint model in a distributed, privacy-preserving environment. But partial annotations pose an obstacle meaning that categories of labels are heterogeneous over clients. We propose to learn a joint backbone in a federated manner, while each site receives its own multi-label segmentation head. By using Bayesian techniques we observe that the different segmentation heads although only trained on the individual client's labels also learn information about the other labels not present at the respective site. This information is encoded in their predictive uncertainty. To obtain a final prediction we leverage this uncertainty and perform a weighted averaging of the ensemble of distributed segmentation heads, which allows us to segment "locally unknown" structures. With our method, which we refer to as FUNAvg, we are even on-par with the models trained and tested on the same dataset on average. The code is publicly available at https://github.com/Cardio-AI/FUNAvg.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、分散されたプライバシ保護環境において、ジョイントモデルをトレーニングする一般的なパラダイムのひとつだ。
しかし、部分的なアノテーションは、ラベルのカテゴリがクライアントに対して不均一であることを意味する障害となる。
我々は,各サイトが独自のマルチラベルセグメンテーションヘッドを受信している間に,結合したバックボーンをフェデレートで学習することを提案する。
ベイズ手法を用いることで、個々のクライアントのラベルでのみ訓練されている異なるセグメンテーションヘッドが、各サイトに存在しない他のラベルに関する情報も学習する。
この情報は予測の不確実性に符号化されている。
この不確実性を利用して、分散セグメンテーションヘッドのアンサンブルの重み付き平均化を行うことで、「局所的に未知」な構造をセグメント化することができる。
FUNAvgと呼ばれるこの手法では、平均して同じデータセット上でトレーニングされ、テストされたモデルと同等です。
コードはhttps://github.com/Cardio-AI/FUNAvg.comで公開されている。
関連論文リスト
- Federated Learning with Label-Masking Distillation [33.80340338038264]
フェデレーション学習は、複数のローカルクライアントに分散したデータ上でモデルを協調的にトレーニングするための、プライバシ保護の方法を提供する。
クライアントのユーザ動作が異なるため、異なるクライアント間のラベルの分布は著しく異なる。
本稿では,FedLMDと呼ばれるラベルマスキング蒸留手法を提案し,各クライアントのラベル分布を知覚することで,フェデレーション学習を容易にする。
論文 参考訳(メタデータ) (2024-09-20T00:46:04Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Rethinking Semi-Supervised Federated Learning: How to co-train
fully-labeled and fully-unlabeled client imaging data [6.322831694506287]
分離フェデレートラーニング(IsoFed)は、半教師付きフェデレートラーニング(SSFL)に特化して設計されたラーニングスキームである。
本稿では,教師付きモデルと半教師付きモデルの簡易な平均化を回避し,SSFLに特化して設計した新しい学習手法を提案する。
特に、我々のトレーニングアプローチは、(a)ラベル付きおよびラベルなしのクライアントモデルの独立したアグリゲーションと、(b)すべてのクライアントで独立したグローバルモデルのローカルな自己教師付き事前トレーニングという2つの部分で構成されています。
論文 参考訳(メタデータ) (2023-10-28T20:41:41Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - FedIL: Federated Incremental Learning from Decentralized Unlabeled Data
with Convergence Analysis [23.70951896315126]
この研究は、サーバを小さなラベル付きデータセットで検討し、ラベルなしデータを複数のクライアントで半教師付き学習に使用することを意図している。
本稿では,サーバ内のラベル付きデータとクライアント内のラベルなしデータをどのように利用するかという問題に対処するため,一般化されたモデルであるFederated Incremental Learning (FedIL)を提案する。
論文 参考訳(メタデータ) (2023-02-23T07:12:12Z) - Navigating Alignment for Non-identical Client Class Sets: A Label
Name-Anchored Federated Learning Framework [26.902679793955972]
FedAlignはラベルとデータの観点からクライアント間の遅延スペースを調整する新しいフレームワークである。
ラベルの観点からは、表現力のある自然言語クラス名をラベルエンコーダの共通基盤として活用し、クラス表現をアンカーする。
データの観点からは、グローバルクラス表現をアンカーとみなし、局所的に知らないクラスのアンカーに十分近い、あるいは遠くにあるデータポイントを活用して、クライアント間でデータエンコーダを整列させる。
論文 参考訳(メタデータ) (2023-01-01T23:17:30Z) - SemiFed: Semi-supervised Federated Learning with Consistency and
Pseudo-Labeling [14.737638416823772]
フェデレートラーニングは、携帯電話や組織などの複数のクライアントが共同で、予測のための共有モデルを学ぶことを可能にする。
本研究では、各クライアントのデータサンプルを部分的にラベル付けするクロスサイロ・フェデレーション学習の新しいシナリオに焦点を当てる。
そこで我々は,半教師付き学習において,一貫性の正規化と擬似ラベル付けという2つの主要なアプローチを統一する,SemiFedと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-21T01:14:27Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。