論文の概要: Does anatomical contextual information improve 3D U-Net based brain
tumor segmentation?
- arxiv url: http://arxiv.org/abs/2010.13460v3
- Date: Fri, 4 Mar 2022 12:13:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:49:47.000896
- Title: Does anatomical contextual information improve 3D U-Net based brain
tumor segmentation?
- Title(参考訳): 解剖学的文脈情報は3D U-Netに基づく脳腫瘍セグメンテーションを改善するか?
- Authors: Iulian Emil Tampu and Neda Haj-Hosseini and Anders Eklund
- Abstract要約: 脳解剖学からの文脈情報の追加は、U-Netベースの脳腫瘍のセグメンテーションを改善するか検討した。
対象者ごとのMRモダリティを減らし, セグメンテーション精度, モデルトレーニング時間, ドメインの一般化, 補償の観点から, 文脈情報の追加が与える影響について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective, robust, and automatic tools for brain tumor segmentation are
needed for the extraction of information useful in treatment planning from
magnetic resonance (MR) images. Context-aware artificial intelligence is an
emerging concept for the development of deep learning applications for
computer-aided medical image analysis. In this work, it is investigated whether
the addition of contextual information from the brain anatomy in the form of
white matter, gray matter, and cerebrospinal fluid masks and probability maps
improves U-Net-based brain tumor segmentation. The BraTS2020 dataset was used
to train and test two standard 3D U-Net models that, in addition to the
conventional MR image modalities, used the anatomical contextual information as
extra channels in the form of binary masks (CIM) or probability maps (CIP). A
baseline model (BLM) that only used the conventional MR image modalities was
also trained. The impact of adding contextual information was investigated in
terms of overall segmentation accuracy, model training time, domain
generalization, and compensation for fewer MR modalities available for each
subject. Results show that there is no statistically significant difference
when comparing Dice scores between the baseline model and the contextual
information models, even when comparing performances for high- and low-grade
tumors independently. Only in the case of compensation for fewer MR modalities
available for each subject did the addition of anatomical contextual
information significantly improve the segmentation of the whole tumor. Overall,
there is no overall significant improvement in segmentation performance when
using anatomical contextual information in the form of either binary masks or
probability maps as extra channels.
- Abstract(参考訳): 磁気共鳴(MR)画像から治療計画に有用な情報を抽出するためには,脳腫瘍セグメンテーションのための効果的で堅牢で自動的なツールが必要である。
コンテキスト認識人工知能は、コンピュータ支援医療画像解析のためのディープラーニングアプリケーションを開発するための新しい概念である。
そこで本研究では,脳解剖学から白質,灰白質,脳脊髄液マスク,確率マップなどの文脈情報の追加が,u-netを用いた脳腫瘍の分節を改善するかどうかについて検討した。
BraTS2020データセットは、従来のMR画像モダリティに加えて、解剖学的文脈情報をバイナリマスク(CIM)や確率マップ(CIP)の形で追加チャネルとして使用する2つの標準的な3次元U-Netモデルのトレーニングとテストに使用された。
従来のMR画像のみを用いたベースラインモデル(BLM)も訓練された。
対象者ごとのMRモダリティを減らし, セグメンテーション精度, モデルトレーニング時間, ドメインの一般化, 補償の観点から, 文脈情報の追加が与える影響について検討した。
その結果,Diceスコアを基準モデルと文脈情報モデルで比較した場合,高次・低次腫瘍の成績を独立に比較しても,統計的に有意な差は認められなかった。
各被験者に利用可能なMRモダリティが少なかった場合のみ,解剖学的文脈情報を加えることで腫瘍全体のセグメンテーションが有意に改善した。
全体として、バイナリマスクや確率マップを付加チャネルとして解剖学的文脈情報を使用する場合、セグメンテーション性能の全体的な改善はない。
関連論文リスト
- Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Brain Tumor Segmentation from MRI Images using Deep Learning Techniques [3.1498833540989413]
パブリックMRIデータセットは、脳腫瘍、髄膜腫、グリオーマ、下垂体腫瘍の3つの変種を持つ233人の患者の3064 TI強調画像を含む。
データセットファイルは、よく知られた画像セグメンテーション深層学習モデルの実装とトレーニングを利用する方法論に順応する前に、変換され、前処理される。
実験の結果,Adamを用いた再帰的残差U-Netは平均差0.8665に到達し,他の最先端ディープラーニングモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-04-29T13:33:21Z) - Investigating certain choices of CNN configurations for brain lesion
segmentation [5.148195106469231]
深層学習モデル、特にCNNは、脳腫瘍セグメンテーションを含む医療画像解析の多くの応用において、選択の方法論となっている。
我々はMRIを用いた脳腫瘍セグメント化の特定の課題に対するCNNモデルの主設計側面について検討した。
論文 参考訳(メタデータ) (2022-12-02T15:24:44Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities [4.855689194518905]
MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
論文 参考訳(メタデータ) (2022-04-06T17:55:19Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - HI-Net: Hyperdense Inception 3D UNet for Brain Tumor Segmentation [17.756591105686]
本稿では,3次元重み付き畳み込み層を積み重ねることで,マルチスケール情報を取得するハイパーデンスインセプション3D UNet(HI-Net)を提案する。
BRATS 2020テストセットの予備結果は、提案されたアプローチにより、ET、WT、TCのダイス(DSC)スコアがそれぞれ0.79457、0.87494、0.83712であることを示しています。
論文 参考訳(メタデータ) (2020-12-12T09:09:04Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。