論文の概要: SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities
- arxiv url: http://arxiv.org/abs/2204.02961v1
- Date: Wed, 6 Apr 2022 17:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:23:10.262152
- Title: SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities
- Title(参考訳): SMU-Net: 欠損を有する脳腫瘍セグメント化のためのスタイルマッチングU-Net
- Authors: Reza Azad, Nika Khosravi, Dorit Merhof
- Abstract要約: MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
- 参考スコア(独自算出の注目度): 4.855689194518905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gliomas are one of the most prevalent types of primary brain tumours,
accounting for more than 30\% of all cases and they develop from the glial stem
or progenitor cells. In theory, the majority of brain tumours could well be
identified exclusively by the use of Magnetic Resonance Imaging (MRI). Each MRI
modality delivers distinct information on the soft tissue of the human brain
and integrating all of them would provide comprehensive data for the accurate
segmentation of the glioma, which is crucial for the patient's prognosis,
diagnosis, and determining the best follow-up treatment. Unfortunately, MRI is
prone to artifacts for a variety of reasons, which might result in missing one
or more MRI modalities. Various strategies have been proposed over the years to
synthesize the missing modality or compensate for the influence it has on
automated segmentation models. However, these methods usually fail to model the
underlying missing information. In this paper, we propose a style matching
U-Net (SMU-Net) for brain tumour segmentation on MRI images. Our co-training
approach utilizes a content and style-matching mechanism to distill the
informative features from the full-modality network into a missing modality
network. To do so, we encode both full-modality and missing-modality data into
a latent space, then we decompose the representation space into a style and
content representation. Our style matching module adaptively recalibrates the
representation space by learning a matching function to transfer the
informative and textural features from a full-modality path into a
missing-modality path. Moreover, by modelling the mutual information, our
content module surpasses the less informative features and re-calibrates the
representation space based on discriminative semantic features. The evaluation
process on the BraTS 2018 dataset shows a significant results.
- Abstract(参考訳): グリオーマは最も一般的な一次脳腫瘍の1つであり、全症例の30%以上を占め、グリア幹細胞または前駆細胞から発達する。
理論的には、ほとんどの脳腫瘍はMRI(Magnetic Resonance Imaging)によって特定できる。
それぞれのmriモダリティは、人間の脳の軟部組織に関する異なる情報を提供し、それらをすべて統合することで、患者の予後、診断、最適なフォローアップ治療の決定に不可欠なグリオーマの正確な分割のための包括的なデータを提供する。
残念なことに、MRIは様々な理由でアーティファクトに傾向があり、1つ以上のMRIモダリティが欠落する可能性がある。
欠落したモダリティを合成したり、自動セグメンテーションモデルへの影響を補うための様々な戦略が長年提案されてきた。
しかし、これらの手法は通常、欠落した情報をモデル化することができない。
本稿では,MRI画像における脳腫瘍分割のためのスタイルマッチングU-Netを提案する。
共学習アプローチでは,コンテンツとスタイルマッチング機構を用いて,完全モダリティネットワークから欠落モダリティネットワークへの情報的特徴の抽出を行う。
そこで本研究では,完全なモダリティと欠落したモダリティの両方を潜在空間にエンコードし,表現空間をスタイルとコンテンツ表現に分解する。
スタイルマッチングモジュールは,完全なモダリティパスから欠落モダリティパスへ情報的およびテクスチャ的特徴を伝達するマッチング関数を学習することにより,表現空間を適応的に再調整する。
さらに, 相互情報をモデル化することにより, コンテンツモジュールは情報量が少なくなり, 識別的意味的特徴に基づく表現空間を再調整する。
BraTS 2018データセットの評価プロセスは、大きな結果を示している。
関連論文リスト
- SegmentAnyBone: A Universal Model that Segments Any Bone at Any Location
on MRI [13.912230325828943]
本稿では,MRIにおける骨分割のための汎用的,一般公開的なディープラーニングモデルを提案する。
提案モデルでは,完全自動セグメンテーションとプロンプトベースセグメンテーションの2つのモードで動作可能である。
1) さまざまなMRIプロトコルにまたがる新しいMRIデータセットの収集,注釈付けを行い,300以上の注釈付きボリュームと8485個の注釈付きスライスを含む。
論文 参考訳(メタデータ) (2024-01-23T18:59:25Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - M3AE: Multimodal Representation Learning for Brain Tumor Segmentation
with Missing Modalities [29.455215925816187]
マルチモーダルMRI(Multimodal magnetic resonance imaging)は、脳腫瘍のサブリージョン解析に補完的な情報を提供する。
画像の破損、アーティファクト、取得プロトコル、コントラストエージェントへのアレルギー、あるいは単にコストによって1つ以上のモダリティが欠落することが一般的である。
そこで本研究では,脳腫瘍切除のための新しい2段階の枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-09T14:54:30Z) - DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans [16.93394669748461]
多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
論文 参考訳(メタデータ) (2022-11-15T09:01:14Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Latent Correlation Representation Learning for Brain Tumor Segmentation
with Missing MRI Modalities [2.867517731896504]
MR画像から正確な脳腫瘍を抽出することが臨床診断と治療計画の鍵となる。
臨床におけるいくつかのイメージングモダリティを見逃すのが一般的です。
本稿では,新しい脳腫瘍分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:21:09Z) - Does anatomical contextual information improve 3D U-Net based brain
tumor segmentation? [0.0]
脳解剖学からの文脈情報の追加は、U-Netベースの脳腫瘍のセグメンテーションを改善するか検討した。
対象者ごとのMRモダリティを減らし, セグメンテーション精度, モデルトレーニング時間, ドメインの一般化, 補償の観点から, 文脈情報の追加が与える影響について検討した。
論文 参考訳(メタデータ) (2020-10-26T09:57:58Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。