論文の概要: An Experimental Study of Data Heterogeneity in Federated Learning
Methods for Medical Imaging
- arxiv url: http://arxiv.org/abs/2107.08371v1
- Date: Sun, 18 Jul 2021 05:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:19:51.350781
- Title: An Experimental Study of Data Heterogeneity in Federated Learning
Methods for Medical Imaging
- Title(参考訳): 医用画像のフェデレーション学習におけるデータ不均一性に関する実験的研究
- Authors: Liangqiong Qu, Niranjan Balachandar and Daniel L Rubin
- Abstract要約: フェデレーション学習は、複数の機関が、プライバシー保護の方法で、ローカルデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
本研究では,データ不均一性の分類体系が,量スキュー,ラベル分布スキュー,画像取得スキューなどのフェデレーション学習方法に与える影響について検討した。
本稿では,データ量スキューの重み付き平均値,重み付き損失量,ラベル分布スキューのバッチ正規化平均値など,データの不均一性からの性能低下を克服するいくつかの緩和策を提案する。
- 参考スコア(独自算出の注目度): 8.984706828657814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables multiple institutions to collaboratively train
machine learning models on their local data in a privacy-preserving way.
However, its distributed nature often leads to significant heterogeneity in
data distributions across institutions. In this paper, we investigate the
deleterious impact of a taxonomy of data heterogeneity regimes on federated
learning methods, including quantity skew, label distribution skew, and imaging
acquisition skew. We show that the performance degrades with the increasing
degrees of data heterogeneity. We present several mitigation strategies to
overcome performance drops from data heterogeneity, including weighted average
for data quantity skew, weighted loss and batch normalization averaging for
label distribution skew. The proposed optimizations to federated learning
methods improve their capability of handling heterogeneity across institutions,
which provides valuable guidance for the deployment of federated learning in
real clinical applications.
- Abstract(参考訳): フェデレーション学習は、複数の機関が、プライバシー保護の方法で、ローカルデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、その分散性は、しばしば組織間のデータ分散の著しい不均一性をもたらす。
本稿では,データ不均一性体制の分類が,量スキュー,ラベル分布スキュー,画像取得スキューなどのフェデレーション学習方法に与える影響について検討する。
データの不均一度の増加に伴い,性能が低下することを示す。
本稿では,データ量スキューの重み付き平均値,重み付き損失量,ラベル分布スキューのバッチ正規化平均値など,データの不均一性による性能低下を克服するための緩和策を提案する。
フェデレーション学習手法の最適化により,機関間の不均一性を扱う能力が向上し,実際の臨床応用におけるフェデレーション学習の展開に関する貴重なガイダンスが提供される。
関連論文リスト
- Federated Impression for Learning with Distributed Heterogeneous Data [19.50235109938016]
フェデレートラーニング(FL)は、データを共有することなく、クライアント間で分散データセットから学習できるパラダイムを提供する。
FLでは、データ収集プロトコルや患者人口の多様さにより、異なる保健所のデータに準最適収束が一般的である。
我々は,グローバル情報を表す合成データをフェデレーションとして復元することで,破滅的な忘れを緩和するFedImpresを提案する。
論文 参考訳(メタデータ) (2024-09-11T15:37:52Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Cross-feature Contrastive Loss for Decentralized Deep Learning on
Heterogeneous Data [8.946847190099206]
異種データに基づく分散学習のための新しい手法を提案する。
一対の隣接するエージェントのクロスフィーチャーは、他のエージェントのモデルパラメータに関するエージェントのデータから得られる特徴である。
実験の結果,提案手法は異種データを用いた分散学習手法に比べて性能(テスト精度が0.2~4%向上)が優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-24T14:48:23Z) - FedSym: Unleashing the Power of Entropy for Benchmarking the Algorithms
for Federated Learning [1.4656078321003647]
Federated Learning(FL)は、独立した学習者がデータをプライベートに処理する分散機械学習アプローチである。
現在普及しているデータ分割技術について検討し、その主な欠点を可視化する。
エントロピーと対称性を利用して「最も困難」かつ制御可能なデータ分布を構築する手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:39:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - FedSLD: Federated Learning with Shared Label Distribution for Medical
Image Classification [6.0088002781256185]
分類タスクのための共有ラベル分布(FedSLD)を用いたフェデレートラーニングを提案する。
FedSLDは、分布の知識が与えられた場合、最適化中に各データサンプルの局所的な目的への貢献を調整する。
その結果,FedSLDは従来のFL最適化アルゴリズムよりもコンバージェンス性能が高いことがわかった。
論文 参考訳(メタデータ) (2021-10-15T21:38:25Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Handling Data Heterogeneity with Generative Replay in Collaborative
Learning for Medical Imaging [21.53220262343254]
本稿では,協調学習手法におけるデータ不均一性の課題に対処する新たな再生戦略を提案する。
一次モデルは所望のタスクを学習し、補助的な「生成再生モデル」は入力画像によく似た画像を合成するか、潜伏変数の抽出を支援する。
生成的再生戦略は柔軟であり、既存の協調学習手法に組み込んで、機関間のデータの均一性を扱う能力を向上させるか、あるいはコミュニケーションコストを削減するために、新しい個別の協調学習フレームワーク(FedReplayと称される)として使用される。
論文 参考訳(メタデータ) (2021-06-24T17:39:55Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。