論文の概要: Med-MMFL: A Multimodal Federated Learning Benchmark in Healthcare
- arxiv url: http://arxiv.org/abs/2602.04416v1
- Date: Wed, 04 Feb 2026 10:50:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.488028
- Title: Med-MMFL: A Multimodal Federated Learning Benchmark in Healthcare
- Title(参考訳): Med-MMFL:医療におけるマルチモーダル・フェデレート・ラーニングベンチマーク
- Authors: Aavash Chhetri, Bibek Niroula, Pratik Shrestha, Yash Raj Shrestha, Lesley A Anderson, Prashnna K Gyawali, Loris Bazzani, Binod Bhattarai,
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを保持しながら、分散化された医療機関間で協調的なモデルトレーニングを可能にする。
Med-MMFLは医療分野における最初の総合的MMFLベンチマークであり、様々なモダリティ、タスク、フェデレーションシナリオを含んでいる。
本ベンチマークでは,6つの最先端FLアルゴリズムを評価し,異なる集約戦略,損失定式化,正規化手法について検討した。
- 参考スコア(独自算出の注目度): 8.87993480369896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative model training across decentralized medical institutions while preserving data privacy. However, medical FL benchmarks remain scarce, with existing efforts focusing mainly on unimodal or bimodal modalities and a limited range of medical tasks. This gap underscores the need for standardized evaluation to advance systematic understanding in medical MultiModal FL (MMFL). To this end, we introduce Med-MMFL, the first comprehensive MMFL benchmark for the medical domain, encompassing diverse modalities, tasks, and federation scenarios. Our benchmark evaluates six representative state-of-the-art FL algorithms, covering different aggregation strategies, loss formulations, and regularization techniques. It spans datasets with 2 to 4 modalities, comprising a total of 10 unique medical modalities, including text, pathology images, ECG, X-ray, radiology reports, and multiple MRI sequences. Experiments are conducted across naturally federated, synthetic IID, and synthetic non-IID settings to simulate real-world heterogeneity. We assess segmentation, classification, modality alignment (retrieval), and VQA tasks. To support reproducibility and fair comparison of future multimodal federated learning (MMFL) methods under realistic medical settings, we release the complete benchmark implementation, including data processing and partitioning pipelines, at https://github.com/bhattarailab/Med-MMFL-Benchmark .
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保持しながら、分散化された医療機関間で協調的なモデルトレーニングを可能にする。
しかし、医学的FLベンチマークは依然として乏しいままであり、既存の取り組みは、主に単調または二モーダルなモダリティと限られた医療タスクに焦点を当てている。
このギャップは、医療用マルチモーダルFL(MMFL)の体系的理解を促進するための標準化された評価の必要性を浮き彫りにする。
この目的のために、Med-MMFLは医療分野における最初の総合的MMFLベンチマークであり、多様なモダリティ、タスク、フェデレーションシナリオを含んでいる。
本ベンチマークでは,6つの最先端FLアルゴリズムを評価し,異なる集約戦略,損失定式化,正規化手法について検討した。
テキスト、病理画像、ECG、X線、放射線学レポート、複数のMRIシークエンスを含む、合計10のユニークな医療モダリティを含む、2~4つのモダリティを持つデータセットにまたがる。
実世界の不均一性をシミュレートするために、自然連合、合成ID、合成非IID設定で実験を行う。
セグメンテーション、分類、モダリティアライメント(検索)、VQAタスクを評価する。
現実的な医療環境下でのMMFL(Multimodal Federated Learning)手法の再現性と公正な比較を支援するため,データ処理やパーティショニングパイプラインを含む完全なベンチマーク実装をhttps://github.com/bhattarailab/Med-MMFL-Benchmarkでリリースする。
関連論文リスト
- A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - FedMLLM: Federated Fine-tuning MLLM on Multimodal Heterogeneity Data [56.08867996209236]
フェデレートラーニング(FL)による微調整型マルチモーダル大言語モデル(MLLM)は、プライベートデータソースを含めることで、トレーニングデータの範囲を拡大することができる。
マルチモーダルな異種シナリオにおけるMLLMのファインチューニング性能を評価するためのベンチマークを提案する。
従来のFL手法を2つのモダリティに依存しない戦略と組み合わせた一般的なFedMLLMフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-22T04:09:23Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - FedMM: Federated Multi-Modal Learning with Modality Heterogeneity in
Computational Pathology [3.802258033231335]
Federated Multi-Modal (FedMM) は、複数の単一モード特徴抽出器を訓練し、その後の分類性能を向上させる学習フレームワークである。
FedMMは、精度とAUCメトリクスの2つのベースラインを特に上回っている。
論文 参考訳(メタデータ) (2024-02-24T16:58:42Z) - A Spectrum Evaluation Benchmark for Medical Multi-Modal Large Language Models [57.88111980149541]
Asclepiusは、Med-MLLMの異なる医学的特長と診断能力で評価する、新しいMed-MLLMベンチマークである。
3つの基本原則に基づいて、アスクレピウスは15の医療専門分野を包括的に評価する。
また、6つのMed-MLLMの詳細な分析を行い、3人の専門家と比較した。
論文 参考訳(メタデータ) (2024-02-17T08:04:23Z) - Multi-Modal Federated Learning for Cancer Staging over Non-IID Datasets with Unbalanced Modalities [9.476402318365446]
本研究では,データサンプルの不均一性だけでなく,機関間のデータモダリティの固有不均一性と不均一性を両立する新しいFLアーキテクチャを提案する。
マルチモーダルFLに適した分散勾配ブレンディングと近接対応クライアント重み付け戦略を考案した。
論文 参考訳(メタデータ) (2024-01-07T23:45:01Z) - FedMed-GAN: Federated Domain Translation on Unsupervised Cross-Modality
Brain Image Synthesis [55.939957482776194]
我々は、教師なし脳画像合成におけるフェデレートドメイン翻訳のための新しいベンチマーク(FedMed-GAN)を提案する。
FedMed-GANは発電機の性能を犠牲にすることなくモード崩壊を緩和する。
FedMed-GANと他の集中型手法を比較するための総合的な評価を提供する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。