論文の概要: FedMP: Tackling Medical Feature Heterogeneity in Federated Learning from a Manifold Perspective
- arxiv url: http://arxiv.org/abs/2508.09174v1
- Date: Thu, 07 Aug 2025 01:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.576928
- Title: FedMP: Tackling Medical Feature Heterogeneity in Federated Learning from a Manifold Perspective
- Title(参考訳): FedMP:マニフォールドから見たフェデレーション学習における医療的特徴の不均一性に対処する
- Authors: Zhekai Zhou, Shudong Liu, Zhaokun Zhou, Yang Liu, Qiang Yang, Yuesheng Zhu, Guibo Luo,
- Abstract要約: Federated Learning(FL)は、複数のクライアントがローカルなプライベートデータを共有せずに、共同で共有モデルをトレーニングする分散機械学習パラダイムである。
非IIDシナリオ下でFLを強化するための新しい手法であるFedMPを提案する。
実世界のマルチセンター分布を含む複数の医用画像データセットにおけるFedMPの有効性を検証する。
- 参考スコア(独自算出の注目度): 23.64943362027511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a decentralized machine learning paradigm in which multiple clients collaboratively train a shared model without sharing their local private data. However, real-world applications of FL frequently encounter challenges arising from the non-identically and independently distributed (non-IID) local datasets across participating clients, which is particularly pronounced in the field of medical imaging, where shifts in image feature distributions significantly hinder the global model's convergence and performance. To address this challenge, we propose FedMP, a novel method designed to enhance FL under non-IID scenarios. FedMP employs stochastic feature manifold completion to enrich the training space of individual client classifiers, and leverages class-prototypes to guide the alignment of feature manifolds across clients within semantically consistent subspaces, facilitating the construction of more distinct decision boundaries. We validate the effectiveness of FedMP on multiple medical imaging datasets, including those with real-world multi-center distributions, as well as on a multi-domain natural image dataset. The experimental results demonstrate that FedMP outperforms existing FL algorithms. Additionally, we analyze the impact of manifold dimensionality, communication efficiency, and privacy implications of feature exposure in our method.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントがローカルなプライベートデータを共有せずに、共同で共有モデルをトレーニングする分散機械学習パラダイムである。
しかし、FLの現実世界の応用は、特に医用画像の分野で顕著な、非同一かつ独立に分散された(非IID)ローカルデータセットから生じる課題にしばしば遭遇し、画像の特徴分布の変化がグローバルモデルの収束と性能を著しく妨げている。
この課題に対処するために,非IIDシナリオ下でFLを強化する新しい手法であるFedMPを提案する。
FedMPは、個々のクライアント分類器のトレーニング空間を強化するために確率的特徴多様体完備化を採用し、クラスプロトタイプを活用して、意味的に一貫した部分空間内のクライアント間の特徴多様体のアライメントをガイドし、より明確な決定境界の構築を容易にする。
実世界のマルチセンター分布を含む複数の医用画像データセットに対するFedMPの有効性と,マルチドメインの自然画像データセットに対するFedMPの有効性を検証した。
実験の結果,FedMPは既存のFLアルゴリズムよりも優れていた。
さらに,本手法では,多様体の次元性,通信効率,および特徴暴露のプライバシーへの影響を解析する。
関連論文リスト
- FedEPA: Enhancing Personalization and Modality Alignment in Multimodal Federated Learning [9.531634844824596]
フェデレートラーニング(FL)は、プライバシを保持しながら、複数のパーティで分散モデルトレーニングを可能にする。
ほとんどのFLシステムは、クライアントが非リアルタイムデータのみを保持し、実際の適用性を制限していると仮定している。
マルチモーダル学習のための新しいFLフレームワークであるFedEPAを提案する。
論文 参考訳(メタデータ) (2025-04-16T12:32:37Z) - FedPref: Federated Learning Across Heterogeneous Multi-objective Preferences [2.519319150166215]
Federated Learning(FL)は、トレーニングデータが分散デバイスによって所有され、共有できない設定のために開発された分散機械学習戦略である。
FLの現実的な設定への応用は、参加者間の不均一性に関連する新たな課題をもたらします。
この設定でパーソナライズされたFLを促進するために設計された最初のアルゴリズムであるFedPrefを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:12:59Z) - FedMRL: Data Heterogeneity Aware Federated Multi-agent Deep Reinforcement Learning for Medical Imaging [12.307490659840845]
我々は,データの不均一性に対処する新しいマルチエージェント深層強化学習フレームワークであるFedMRLを紹介する。
FedMRLは、クライアント間の公平性を促進するために、新たな損失関数を導入し、最終グローバルモデルのバイアスを防ぐ。
その結果,FedMRLが最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-08T10:10:07Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Distributionally Robust Alignment for Medical Federated Vision-Language Pre-training Under Data Heterogeneity [4.84693589377679]
医用ビジョン言語事前学習のためのFedDRA(Federated Distributionally Robust Alignment)を提案する。
FedDRAは異種条件下で頑健な視覚言語アライメントを実現する。
また,本手法は様々な医学的事前訓練法にも適している。
論文 参考訳(メタデータ) (2024-04-05T01:17:25Z) - FedDAT: An Approach for Foundation Model Finetuning in Multi-Modal
Heterogeneous Federated Learning [37.96957782129352]
我々はFederated Dual-Aadapter Teacher(Fed DAT)と呼ばれる異種マルチモーダル基礎モデルに適した微調整フレームワークを提案する。
Fed DATは、クライアントのローカル更新を規則化し、MKD(Mutual Knowledge Distillation)を効率的な知識伝達に適用することで、データの均一性に対処する。
その有効性を示すために、異なる種類のデータ不均一性を持つ4つの多モードFLベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-08-21T21:57:01Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedDG: Federated Domain Generalization on Medical Image Segmentation via
Episodic Learning in Continuous Frequency Space [63.43592895652803]
フェデレーションラーニングは、分散医療機関がプライバシ保護を備えた共有予測モデルを共同で学習することを可能にします。
臨床展開では、連合学習で訓練されたモデルは、連邦外の完全に見えない病院に適用された場合、パフォーマンス低下に苦しむ可能性がある。
そこで本研究では,この問題に対してELCFS(Episodic Learning in Continuous frequency Space)と呼ばれる新しいアプローチを提案する。
本手法の有効性は,2つの医用画像分割作業における最先端および深部アブレーション実験よりも優れていた。
論文 参考訳(メタデータ) (2021-03-10T13:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。