論文の概要: DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans
- arxiv url: http://arxiv.org/abs/2211.07993v1
- Date: Tue, 15 Nov 2022 09:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 14:19:11.555248
- Title: DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans
- Title(参考訳): DIGEST:不完全なマルチモーダルMRIスキャンを用いた脳腫瘍セグメント化のための超高精細GE tranSferneTwork学習
- Authors: Haoran Li, Cheng Li, Weijian Huang, Xiawu Zheng, Yan Xi, Shanshan Wang
- Abstract要約: 多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
- 参考スコア(独自算出の注目度): 16.93394669748461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain tumor segmentation based on multi-modal magnetic resonance imaging
(MRI) plays a pivotal role in assisting brain cancer diagnosis, treatment, and
postoperative evaluations. Despite the achieved inspiring performance by
existing automatic segmentation methods, multi-modal MRI data are still
unavailable in real-world clinical applications due to quite a few
uncontrollable factors (e.g. different imaging protocols, data corruption, and
patient condition limitations), which lead to a large performance drop during
practical applications. In this work, we propose a Deeply supervIsed knowledGE
tranSfer neTwork (DIGEST), which achieves accurate brain tumor segmentation
under different modality-missing scenarios. Specifically, a knowledge transfer
learning frame is constructed, enabling a student model to learn
modality-shared semantic information from a teacher model pretrained with the
complete multi-modal MRI data. To simulate all the possible modality-missing
conditions under the given multi-modal data, we generate incomplete multi-modal
MRI samples based on Bernoulli sampling. Finally, a deeply supervised knowledge
transfer loss is designed to ensure the consistency of the teacher-student
structure at different decoding stages, which helps the extraction of inherent
and effective modality representations. Experiments on the BraTS 2020 dataset
demonstrate that our method achieves promising results for the incomplete
multi-modal MR image segmentation task.
- Abstract(参考訳): 多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成された性能にもかかわらず、マルチモーダルMRIデータは、多くの制御不能な要因(例えば、異なる画像プロトコル、データ破損、患者状態の制限)のために、実際の臨床応用では依然として利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍の分節化を実現するDeeply SupervIsed KnowledGE tranSfer neTwork (DIGEST)を提案する。
具体的には、知識伝達学習フレームを構築し、学生モデルは、完全なマルチモーダルMRIデータで事前訓練された教師モデルからモダリティ共有の意味情報を学習することができる。
与えられたマルチモーダルデータの下で可能なモダリティ許容条件をすべてシミュレートするために、ベルヌーイサンプリングに基づく不完全なマルチモーダルmriサンプルを生成する。
最後に,教師-教師間構造の異なる復号段階における一貫性を確保するために,教師間の知識伝達損失を深く監視することで,本質的かつ効果的なモダリティ表現の抽出を支援する。
BraTS 2020データセットを用いた実験により,不完全なマルチモーダルMR画像分割タスクにおいて,提案手法が有望な結果が得られることを示した。
関連論文リスト
- Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities [4.855689194518905]
MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
論文 参考訳(メタデータ) (2022-04-06T17:55:19Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Deep Transfer Learning for Brain Magnetic Resonance Image Multi-class
Classification [0.6117371161379209]
我々は、Deep Transfer Learningを用いて脳MRI画像中の腫瘍の多重分類を行うフレームワークを開発した。
新たなデータセットと2つの公開MRI脳データセットを使用して、提案手法は86.40%の精度で分類された。
本研究は,脳腫瘍のマルチクラス化タスクにおいて,トランスファーラーニングのためのフレームワークが有用かつ効果的な方法であることを示すものである。
論文 参考訳(メタデータ) (2021-06-14T12:19:27Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。