論文の概要: Mix-modal Federated Learning for MRI Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.02541v1
- Date: Tue, 02 Sep 2025 17:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.129591
- Title: Mix-modal Federated Learning for MRI Image Segmentation
- Title(参考訳): MRI画像分割のためのMix-modal Federated Learning
- Authors: Guyue Hu, Siyuan Song, Jingpeng Sun, Zhe Jin, Chenglong Li, Jin Tang,
- Abstract要約: 我々はまず,フェデレートラーニング(FL)の新しいパラダイムとして,非集中型混合モードMRI画像セグメンテーションを定式化する。
本稿では,MRI画像分割のためのMDM-MixMFL(mix-modal federated learning framework)を提案する。
- 参考スコア(独自算出の注目度): 21.03432726238057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Magnetic resonance imaging (MRI) image segmentation is crucial in diagnosing and treating many diseases, such as brain tumors. Existing MRI image segmentation methods mainly fall into a centralized multimodal paradigm, which is inapplicable in engineering non-centralized mix-modal medical scenarios. In this situation, each distributed client (hospital) processes multiple mixed MRI modalities, and the modality set and image data for each client are diverse, suffering from extensive client-wise modality heterogeneity and data heterogeneity. In this paper, we first formulate non-centralized mix-modal MRI image segmentation as a new paradigm for federated learning (FL) that involves multiple modalities, called mix-modal federated learning (MixMFL). It distinguishes from existing multimodal federating learning (MulMFL) and cross-modal federating learning (CroMFL) paradigms. Then, we proposed a novel modality decoupling and memorizing mix-modal federated learning framework (MDM-MixMFL) for MRI image segmentation, which is characterized by a modality decoupling strategy and a modality memorizing mechanism. Specifically, the modality decoupling strategy disentangles each modality into modality-tailored and modality-shared information. During mix-modal federated updating, corresponding modality encoders undergo tailored and shared updating, respectively. It facilitates stable and adaptive federating aggregation of heterogeneous data and modalities from distributed clients. Besides, the modality memorizing mechanism stores client-shared modality prototypes dynamically refreshed from every modality-tailored encoder to compensate for incomplete modalities in each local client. It further benefits modality aggregation and fusion processes during mixmodal federated learning. Extensive experiments on two public datasets for MRI image segmentation demonstrate the effectiveness and superiority of our methods.
- Abstract(参考訳): MRI画像分割は、脳腫瘍などの多くの疾患の診断と治療に重要である。
既存のMRI画像分割法は、主に集中型マルチモーダルパラダイムに該当し、非集中型ミックスモーダル医療シナリオでは適用できない。
このような状況下では、各分散クライアント(ホスピタル)は複数の混合MRIモードを処理し、クライアント毎のモダリティセットと画像データは多種多様であり、クライアント毎のモダリティの不均一性とデータ不均一性に悩まされている。
本稿では,MixMFL (mix-modal Federated Learning) と呼ばれる,複数のモーダルを含むフェデレートラーニング(FL)の新しいパラダイムとして,非集中型ミックスモーダルMRI画像セグメンテーションを初めて定式化する。
既存のマルチモーダル・フェデレーション・ラーニング(MulMFL)とクロスモーダル・フェデレーション・ラーニング(CroMFL)のパラダイムを区別する。
そこで我々は,MRI画像分割のための新しいモダリティデカップリング・記憶型混合モードフェデレーション学習フレームワーク(MDM-MixMFL)を提案し,モダリティデカップリング戦略とモダリティ記憶機構を特徴とする。
具体的には、モダリティデカップリング戦略は、各モダリティをモダリティ調整情報とモダリティ共有情報に分離する。
ミキシングモードのフェデレーション更新では、対応するモダリティエンコーダがそれぞれ調整され、共有更新される。
分散クライアントからの異種データとモダリティの安定的で適応的なフェデレーションアグリゲーションを促進する。
さらに、モダリティ記憶機構は、すべてのモダリティ調整エンコーダから動的にリフレッシュされたクライアント共有モダリティプロトタイプを格納し、各ローカルクライアントの不完全なモダリティを補償する。
ミックスモーダル・フェデレート・ラーニング(mixmodal Federated Learning)において、モダリティ・アグリゲーションと融合プロセスの恩恵を受ける。
MRI画像分割のための2つの公開データセットに対する大規模な実験により,提案手法の有効性と優位性を実証した。
関連論文リスト
- From Cross-Modal to Mixed-Modal Visible-Infrared Re-Identification [11.324518300593983]
現行のVI-ReID法はモダリティの整合性に重点を置いているが、実世界の応用にはVとIの両方の画像を含む混合ギャラリーが含まれることが多い。
これは、同じモダリティのギャラリー画像はドメインギャップが低いが、異なるIDに対応するためである。
本稿では,両モダリティのデータを含む新たな混合モードReID設定を提案する。
論文 参考訳(メタデータ) (2025-01-23T01:28:05Z) - A Multimodal Feature Distillation with CNN-Transformer Network for Brain Tumor Segmentation with Incomplete Modalities [15.841483814265592]
本稿では,CNN-Transformer Hybrid Network (MCTSeg) を用いたマルチモーダル特徴蒸留法を提案する。
CNN-Transformer ネットワークと Transformer の畳み込みブロックを併用して提案するモジュールの重要性について検討した。
論文 参考訳(メタデータ) (2024-04-22T09:33:44Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Federated Modality-specific Encoders and Multimodal Anchors for Personalized Brain Tumor Segmentation [29.584319651813754]
FedMEMA (Federated modality-specific encoder) とマルチモーダルアンカー (Multimal anchors) が提案されている。
FedMEMAは、モーダル間の不均一性を考慮するために、各モーダルに排他的エンコーダを使用する。
FedMEMAは、マルチモーダル脳腫瘍セグメンテーションのためのBraTS 2020ベンチマークで検証されている。
論文 参考訳(メタデータ) (2024-03-18T14:02:53Z) - Federated Pseudo Modality Generation for Incomplete Multi-Modal MRI
Reconstruction [26.994070472726357]
Fed-PMGは、コミュニケーション効率の高い新しいフェデレーション学習フレームワークである。
単一モーダルクライアントごとに欠落したモーダルを復元する擬似モーダル生成機構を提案する。
当社のアプローチは, 許容可能な通信コストの範囲内で, 欠落したモダリティを効果的に達成することができる。
論文 参考訳(メタデータ) (2023-08-20T03:38:59Z) - Multi-task Paired Masking with Alignment Modeling for Medical
Vision-Language Pre-training [55.56609500764344]
本稿では,マルチタスク・ペアド・マスキング・アライメント(MPMA)に基づく統合フレームワークを提案する。
また, メモリ拡張クロスモーダルフュージョン (MA-CMF) モジュールを導入し, 視覚情報を完全統合し, レポート再構築を支援する。
論文 参考訳(メタデータ) (2023-05-13T13:53:48Z) - NestedFormer: Nested Modality-Aware Transformer for Brain Tumor
Segmentation [29.157465321864265]
そこで我々は,Nested Modality-Aware Transformer (NestedFormer) を提案する。
変換器をベースとしたマルチエンコーダと単一デコーダ構造に基づいて,異なるモードの高レベル表現に対してネストしたマルチモーダル融合を行う。
論文 参考訳(メタデータ) (2022-08-31T14:04:25Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。