論文の概要: Feature-enhanced Generation and Multi-modality Fusion based Deep Neural
Network for Brain Tumor Segmentation with Missing MR Modalities
- arxiv url: http://arxiv.org/abs/2111.04735v1
- Date: Mon, 8 Nov 2021 10:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:34:13.676240
- Title: Feature-enhanced Generation and Multi-modality Fusion based Deep Neural
Network for Brain Tumor Segmentation with Missing MR Modalities
- Title(参考訳): MRモードを欠いた脳腫瘍切除のための特徴強調生成と多モード融合に基づくディープニューラルネットワーク
- Authors: Tongxue Zhou, St\'ephane Canu, Pierre Vera and Su Ruan
- Abstract要約: 主な問題は、すべてのMRIが常に臨床検査で利用できるわけではないことである。
今回我々は1つ以上のモダリティが欠落した場合に新しい脳腫瘍分節ネットワークを提案する。
提案ネットワークは,機能強化ジェネレータ,相関制約ブロック,セグメンテーションネットワークの3つのサブネットワークで構成されている。
- 参考スコア(独自算出の注目度): 2.867517731896504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using multimodal Magnetic Resonance Imaging (MRI) is necessary for accurate
brain tumor segmentation. The main problem is that not all types of MRIs are
always available in clinical exams. Based on the fact that there is a strong
correlation between MR modalities of the same patient, in this work, we propose
a novel brain tumor segmentation network in the case of missing one or more
modalities. The proposed network consists of three sub-networks: a
feature-enhanced generator, a correlation constraint block and a segmentation
network. The feature-enhanced generator utilizes the available modalities to
generate 3D feature-enhanced image representing the missing modality. The
correlation constraint block can exploit the multi-source correlation between
the modalities and also constrain the generator to synthesize a
feature-enhanced modality which must have a coherent correlation with the
available modalities. The segmentation network is a multi-encoder based U-Net
to achieve the final brain tumor segmentation. The proposed method is evaluated
on BraTS 2018 dataset. Experimental results demonstrate the effectiveness of
the proposed method which achieves the average Dice Score of 82.9, 74.9 and
59.1 on whole tumor, tumor core and enhancing tumor, respectively across all
the situations, and outperforms the best method by 3.5%, 17% and 18.2%.
- Abstract(参考訳): mri(multimodal magnetic resonance imaging)は、脳腫瘍の正確な分割に必要である。
主な問題は、すべてのMRIが常に臨床検査で利用できるわけではないことである。
本研究は, 同一患者のMRモダリティ間に強い相関関係があることから, 1つ以上のモダリティが欠如している場合に, 新たな脳腫瘍セグメンテーションネットワークを提案する。
提案ネットワークは,機能強化ジェネレータ,相関制約ブロック,セグメンテーションネットワークの3つのサブネットワークで構成されている。
利用可能なモダリティを利用して、欠落したモダリティを表す3次元特徴強調画像を生成する。
相関制約ブロックは、モダリティ間の多元相関を利用して、ジェネレータが利用可能なモダリティとコヒーレントな相関を持つ特徴強調モダリティを合成するように制約することができる。
セグメンテーションネットワークは、最終的な脳腫瘍セグメンテーションを達成するためのマルチエンコーダベースのU-Netである。
提案手法はBraTS 2018データセットで評価される。
以上の結果より,全腫瘍,腫瘍コア,造影腫瘍に対して平均82.9,74.9,59.1のdiceスコアを,すべての状況で達成し,最善の方法である3.5%,17%,18.2%を上回った。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Automated Ensemble-Based Segmentation of Adult Brain Tumors: A Novel
Approach Using the BraTS AFRICA Challenge Data [0.0]
3つのコアアーキテクチャに基づく11種類のユニークなバリエーションからなるアンサンブル手法を提案する。
その結果,異なるアーキテクチャを組み合わせるアンサンブルアプローチが単一モデルより優れていることがわかった。
これらの結果は、脳腫瘍を正確に分類する上での、調整された深層学習技術の可能性を裏付けるものである。
論文 参考訳(メタデータ) (2023-08-14T15:34:22Z) - Multiclass MRI Brain Tumor Segmentation using 3D Attention-based U-Net [0.0]
本稿では,脳腫瘍のマルチリージョンセグメンテーションのための3次元アテンションに基づくU-Netアーキテクチャを提案する。
注意機構は、健康な組織を非強調化し、悪性組織をアクセントすることで、セグメンテーションの精度を向上させる。
論文 参考訳(メタデータ) (2023-05-10T14:35:07Z) - Prediction of brain tumor recurrence location based on multi-modal
fusion and nonlinear correlation learning [55.789874096142285]
深層学習に基づく脳腫瘍再発位置予測ネットワークを提案する。
まず、パブリックデータセットBraTS 2021上で、マルチモーダル脳腫瘍セグメンテーションネットワークをトレーニングする。
次に、事前訓練されたエンコーダを、リッチなセマンティックな特徴を抽出するために、プライベートデータセットに転送する。
2つのデコーダは、現在の脳腫瘍を共同に分断し、将来の腫瘍再発位置を予測するために構築されている。
論文 参考訳(メタデータ) (2023-04-11T02:45:38Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Latent Correlation Representation Learning for Brain Tumor Segmentation
with Missing MRI Modalities [2.867517731896504]
MR画像から正確な脳腫瘍を抽出することが臨床診断と治療計画の鍵となる。
臨床におけるいくつかのイメージングモダリティを見逃すのが一般的です。
本稿では,新しい脳腫瘍分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:21:09Z) - HI-Net: Hyperdense Inception 3D UNet for Brain Tumor Segmentation [17.756591105686]
本稿では,3次元重み付き畳み込み層を積み重ねることで,マルチスケール情報を取得するハイパーデンスインセプション3D UNet(HI-Net)を提案する。
BRATS 2020テストセットの予備結果は、提案されたアプローチにより、ET、WT、TCのダイス(DSC)スコアがそれぞれ0.79457、0.87494、0.83712であることを示しています。
論文 参考訳(メタデータ) (2020-12-12T09:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。