論文の概要: FedSLD: Federated Learning with Shared Label Distribution for Medical
Image Classification
- arxiv url: http://arxiv.org/abs/2110.08378v1
- Date: Fri, 15 Oct 2021 21:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:14:10.997178
- Title: FedSLD: Federated Learning with Shared Label Distribution for Medical
Image Classification
- Title(参考訳): FedSLD:医療画像分類のための共有ラベル分布を用いたフェデレーション学習
- Authors: Jun Luo, Shandong Wu
- Abstract要約: 分類タスクのための共有ラベル分布(FedSLD)を用いたフェデレートラーニングを提案する。
FedSLDは、分布の知識が与えられた場合、最適化中に各データサンプルの局所的な目的への貢献を調整する。
その結果,FedSLDは従来のFL最適化アルゴリズムよりもコンバージェンス性能が高いことがわかった。
- 参考スコア(独自算出の注目度): 6.0088002781256185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning in medical research, by nature, needs careful attention on
obeying the regulations of data privacy, making it difficult to train a machine
learning model over gathered data from different medical centers. Failure of
leveraging data of the same kind may result in poor generalizability for the
trained model. Federated learning (FL) enables collaboratively training a joint
model while keeping the data decentralized for multiple medical centers.
However, federated optimizations often suffer from the heterogeneity of the
data distribution across medical centers. In this work, we propose Federated
Learning with Shared Label Distribution (FedSLD) for classification tasks, a
method that assumes knowledge of the label distributions for all the
participating clients in the federation. FedSLD adjusts the contribution of
each data sample to the local objective during optimization given knowledge of
the distribution, mitigating the instability brought by data heterogeneity
across all clients. We conduct extensive experiments on four publicly available
image datasets with different types of non-IID data distributions. Our results
show that FedSLD achieves better convergence performance than the compared
leading FL optimization algorithms, increasing the test accuracy by up to 5.50
percentage points.
- Abstract(参考訳): 医学研究における機械学習は、データプライバシの規則に従うことに注意が必要であるため、異なる医療センターから収集されたデータに対して機械学習モデルをトレーニングすることは困難である。
同じ種類のデータを活用するのに失敗すると、訓練されたモデルの一般化性が低下する可能性がある。
フェデレートラーニング(FL)は、複数の医療センターでデータを分散化しながら、共同モデルを協調的に訓練することを可能にする。
しかし、連合最適化はしばしば医療センター間でのデータの均質性に苦しむ。
本研究は,フェデレーションに参加するすべてのクライアントに対して,ラベル分布の知識を前提とした分類タスクのためのFederated Learning with Shared Label Distribution (FedSLD)を提案する。
fedsldは、分散に関する知識を与えられた最適化中に、各データサンプルのローカル目的への貢献を調整し、全クライアントにわたるデータの不均一性による不安定さを軽減する。
非IIDデータ分布の異なる4種類の公開画像データセットについて広範な実験を行った。
その結果,FedSLDは従来のFL最適化アルゴリズムよりも優れた収束性能を示し,テスト精度を最大5.50ポイント向上させることができた。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - Federated Impression for Learning with Distributed Heterogeneous Data [19.50235109938016]
フェデレートラーニング(FL)は、データを共有することなく、クライアント間で分散データセットから学習できるパラダイムを提供する。
FLでは、データ収集プロトコルや患者人口の多様さにより、異なる保健所のデータに準最適収束が一般的である。
我々は,グローバル情報を表す合成データをフェデレーションとして復元することで,破滅的な忘れを緩和するFedImpresを提案する。
論文 参考訳(メタデータ) (2024-09-11T15:37:52Z) - Investigation of Federated Learning Algorithms for Retinal Optical
Coherence Tomography Image Classification with Statistical Heterogeneity [6.318288071829899]
我々は,OCT画像分類モデルを分散的に学習するためのFedAvgとFedProxの有効性を検討した。
IID と Non-IID 設定で複数のクライアントに公開可能な OCT データセットを分割し,各クライアントのサブセットをローカルにトレーニングした。
論文 参考訳(メタデータ) (2024-02-15T15:58:42Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Adaptive Personlization in Federated Learning for Highly Non-i.i.d. Data [37.667379000751325]
フェデレートラーニング(Federated Learning, FL)は、医療機関にグローバルモデルにおけるコラボレーションの見通しを提供する分散ラーニング手法である。
本研究では,FLの中間的半言語モデルを生成する適応階層クラスタリング手法について検討する。
本実験は, 分類精度の標準的なFL法と比較して, 不均質分布において有意な性能向上を示した。
論文 参考訳(メタデータ) (2022-07-07T17:25:04Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - FEDIC: Federated Learning on Non-IID and Long-Tailed Data via Calibrated
Distillation [54.2658887073461]
非IIDデータの処理は、フェデレーション学習における最も難しい問題の1つである。
本稿では, フェデレート学習における非IIDデータとロングテールデータの結合問題について検討し, フェデレート・アンサンブル蒸留と不均衡(FEDIC)という対応ソリューションを提案する。
FEDICはモデルアンサンブルを使用して、非IIDデータでトレーニングされたモデルの多様性を活用する。
論文 参考訳(メタデータ) (2022-04-30T06:17:36Z) - An Experimental Study of Data Heterogeneity in Federated Learning
Methods for Medical Imaging [8.984706828657814]
フェデレーション学習は、複数の機関が、プライバシー保護の方法で、ローカルデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
本研究では,データ不均一性の分類体系が,量スキュー,ラベル分布スキュー,画像取得スキューなどのフェデレーション学習方法に与える影響について検討した。
本稿では,データ量スキューの重み付き平均値,重み付き損失量,ラベル分布スキューのバッチ正規化平均値など,データの不均一性からの性能低下を克服するいくつかの緩和策を提案する。
論文 参考訳(メタデータ) (2021-07-18T05:47:48Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。