論文の概要: Fed-MUnet: Multi-modal Federated Unet for Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2409.01020v1
- Date: Mon, 2 Sep 2024 07:55:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 07:49:16.489552
- Title: Fed-MUnet: Multi-modal Federated Unet for Brain Tumor Segmentation
- Title(参考訳): Fed-MUnet:脳腫瘍分離のための多モードフェデレーションUnet
- Authors: Ruojun Zhou, Lisha Qu, Lei Zhang, Ziming Li, Hongwei Yu, Bing Luo,
- Abstract要約: FLトレーニングに適した脳腫瘍セグメンテーション(Fed-MUnet)のための新しい多モードFLフレームワークを提案する。
我々は、BraTS2022データセットを用いて、我々のアプローチを評価した。
- 参考スコア(独自算出の注目度): 8.757069870788525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based techniques have been widely utilized for brain tumor segmentation using both single and multi-modal Magnetic Resonance Imaging (MRI) images. Most current studies focus on centralized training due to the intrinsic challenge of data sharing across clinics. To mitigate privacy concerns, researchers have introduced Federated Learning (FL) methods to brain tumor segmentation tasks. However, currently such methods are focusing on single modal MRI, with limited study on multi-modal MRI. The challenges include complex structure, large-scale parameters, and overfitting issues of the FL based methods using multi-modal MRI. To address the above challenges, we propose a novel multi-modal FL framework for brain tumor segmentation (Fed-MUnet) that is suitable for FL training. We evaluate our approach with the BraTS2022 datasets, which are publicly available. The experimental results demonstrate that our framework achieves FL nature of distributed learning and privacy preserving. For the enhancing tumor, tumor core and whole tumor, the mean of five major metrics were 87.5%, 90.6% and 92.2%, respectively, which were higher than SOTA methods while preserving privacy. In terms of parameters count, quantity of floating-point operations (FLOPs) and inference, Fed-MUnet is Pareto optimal compared with the state-of-the-art segmentation backbone while achieves higher performance and tackles privacy issue. Our codes are open-sourced at https://github.com/Arnold-Jun/Fed-MUnet.
- Abstract(参考訳): 深層学習に基づく手法は、単モード磁気共鳴イメージング(MRI)画像とマルチモード磁気共鳴イメージング(MRI)画像の両方を用いて脳腫瘍のセグメンテーションに広く用いられている。
最近の研究の多くは、診療所間のデータ共有という本質的な課題のために、集中的なトレーニングに重点を置いている。
プライバシーの懸念を軽減するために、研究者は脳腫瘍のセグメンテーションタスクにフェデレートラーニング(FL)メソッドを導入した。
しかし、現在では単一のモーダルMRIに焦点が当てられており、マルチモーダルMRIについては限定的な研究がなされている。
この課題には、複雑な構造、大規模パラメータ、マルチモーダルMRIを用いたFLベースの手法の過剰適合問題などが含まれる。
以上の課題に対処するため,我々は,FLトレーニングに適した脳腫瘍セグメンテーション(Fed-MUnet)のための新しいマルチモーダルFLフレームワークを提案する。
我々は、BraTS2022データセットを用いて、我々のアプローチを評価した。
実験により,本フレームワークは分散学習とプライバシ保護のFL特性を実現することを示す。
腫瘍, 腫瘍コア, 腫瘍全体の5つの指標の平均値は87.5%, 90.6%, 92.2%であり, それぞれSOTA法よりも高い値を示した。
パラメータ数、浮動小数点演算量(FLOP)、推論の観点では、Fed-MUnetは最先端のセグメンテーションバックボーンと比較してパレートが最適であり、高いパフォーマンスを実現し、プライバシー問題に取り組む。
私たちのコードはhttps://github.com/Arnold-Jun/Fed-MUnet.comでオープンソース化されています。
関連論文リスト
- NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Empowering Healthcare through Privacy-Preserving MRI Analysis [3.6394715554048234]
本稿では,Ensemble-Based Federated Learning (EBFL)フレームワークを紹介する。
EBFLフレームワークは、機密性の高い患者データを共有することよりも、モデルの特徴を強調することによって、従来のアプローチから逸脱する。
グリオーマ,髄膜腫,下垂体,非腫瘍例などの脳腫瘍の分類において,有意な精度が得られた。
論文 参考訳(メタデータ) (2024-03-14T19:51:18Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans [16.93394669748461]
多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
論文 参考訳(メタデータ) (2022-11-15T09:01:14Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality-Pairing Learning for Brain Tumor Segmentation [34.58078431696929]
そこで我々は,脳腫瘍セグメンテーションのための新しいエンド・ツー・エンドモダリティペアリング学習法を提案する。
提案手法はBraTS 2020オンラインテストデータセット上でテストされ,有望なセグメンテーション性能が得られた。
論文 参考訳(メタデータ) (2020-10-19T07:42:10Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。