論文の概要: The Segment Anything foundation model achieves favorable brain tumor
autosegmentation accuracy on MRI to support radiotherapy treatment planning
- arxiv url: http://arxiv.org/abs/2304.07875v1
- Date: Sun, 16 Apr 2023 19:46:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:01:24.568485
- Title: The Segment Anything foundation model achieves favorable brain tumor
autosegmentation accuracy on MRI to support radiotherapy treatment planning
- Title(参考訳): 放射線治療計画支援のためのsegment anything foundation modelの有用性
- Authors: Florian Putz, Johanna Grigo, Thomas Weissmann, Philipp Schubert,
Daniel Hoefler, Ahmed Gomaa, Hassen Ben Tkhayat, Amr Hagag, Sebastian
Lettmaier, Benjamin Frey, Udo S. Gaipl, Luitpold V. Distel, Sabine Semrau,
Christoph Bert, Rainer Fietkau, Yixing Huang
- Abstract要約: Segment Anything Foundation Modelは、MRIスライス上のグリオーマ脳腫瘍のセグメンテーションに対して高いゼロショット精度を達成することができる。
その結果,臨床応用に適切に組み込むと,Segment Anything は RT 治療計画の加速と促進が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 1.4268390778580502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Tumor segmentation in MRI is crucial in radiotherapy (RT)
treatment planning for brain tumor patients. Segment anything (SA), a novel
promptable foundation model for autosegmentation, has shown high accuracy for
multiple segmentation tasks but was not evaluated on medical datasets yet.
Methods: SA was evaluated in a point-to-mask task for glioma brain tumor
autosegmentation on 16744 transversal slices from 369 MRI datasets (BraTS
2020). Up to 9 point prompts were placed per slice. Tumor core (enhancing tumor
+ necrotic core) was segmented on contrast-enhanced T1w sequences. Out of the 3
masks predicted by SA, accuracy was evaluated for the mask with the highest
calculated IoU (oracle mask) and with highest model predicted IoU (suggested
mask). In addition to assessing SA on whole MRI slices, SA was also evaluated
on images cropped to the tumor (max. 3D extent + 2 cm). Results: Mean best IoU
(mbIoU) using oracle mask on full MRI slices was 0.762 (IQR 0.713-0.917). Best
2D mask was achieved after a mean of 6.6 point prompts (IQR 5-9). Segmentation
accuracy was significantly better for high- compared to low-grade glioma cases
(mbIoU 0.789 vs. 0.668). Accuracy was worse using MRI slices cropped to the
tumor (mbIoU 0.759) and was much worse using suggested mask (full slices
0.572). For all experiments, accuracy was low on peripheral slices with few
tumor voxels (mbIoU, <300: 0.537 vs. >=300: 0.841). Stacking best oracle
segmentations from full axial MRI slices, mean 3D DSC for tumor core was 0.872,
which was improved to 0.919 by combining axial, sagittal and coronal masks.
Conclusions: The Segment Anything foundation model, while trained on photos,
can achieve high zero-shot accuracy for glioma brain tumor segmentation on MRI
slices. The results suggest that Segment Anything can accelerate and facilitate
RT treatment planning, when properly integrated in a clinical application.
- Abstract(参考訳): 背景:脳腫瘍患者に対する放射線治療(RT)の計画にはMRIの腫瘍分節化が不可欠である。
セグメンテーションモデル(SA)は、複数のセグメンテーションタスクに対して高い精度を示すが、まだ医療データセットでは評価されていない。
方法: 369個のMRIデータセット(BraTS 2020)から16744個の経側切片を用いたグリオーマ脳腫瘍自動切除のポイント・ツー・マスクタスクでSAを評価した。
スライス毎に最大9ポイントのプロンプトが配置された。
腫瘍コア (enhancing tumor + necrotic core) を造影t1w配列に分割した。
SAにより予測された3つのマスクのうち、最も高い計算値のIoU (オークルマスク) と、最も高い予測値のIoU (サジェストマスク) のマスクについて精度を評価した。
また,全MRIスライスにおけるSAの評価に加えて,腫瘍まで採取した画像(max.3D extent + 2 cm)も評価した。
結果: フルMRIスライスにおけるオラクルマスクを用いた平均最高IoU (mbIoU) は0.762 (IQR 0.713-0.917) であった。
最高の2Dマスクは平均6.6ポイントプロンプト(IQR 5-9)で達成された。
セグメンテーション精度は低グレードのグリオーマ (mbIoU 0.789 vs. 0.668) と比較して有意に良好であった。
腫瘍に採取したMRIスライス(mbIoU 0.759)では精度が悪く,提案したマスク(全スライス0.572)ではさらに悪化していた。
すべての実験において,腫瘍ボクセルの少ない周辺スライスの精度は低かった(mbiou, <300: 0.537 vs. >=300: 0.841)。
腫瘍コアの3D DSC は 0.872 であり, 軸, 矢状, コロナマスクの併用により 0.919 に改善した。
結論:segment anything foundation modelは、写真で訓練しながら、mriスライス上のグリオーマ脳腫瘍の分画において高いゼロショット精度を達成することができる。
その結果,臨床応用に適切に組み込むと,Segment Anything は RT 治療計画の加速と促進が可能であることが示唆された。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Training and Comparison of nnU-Net and DeepMedic Methods for
Autosegmentation of Pediatric Brain Tumors [0.08519384144663283]
ディープラーニングに基づく2つの3DセグメンテーションモデルであるDeepMedicとnnU-Netを比較した。
小児特異的に訓練されたnnU-Netモデルは、小児脳腫瘍の全腫瘍および亜領域のセグメンテーションにおいてDeepMedicよりも優れている。
論文 参考訳(メタデータ) (2024-01-16T14:44:06Z) - Glioblastoma Tumor Segmentation using an Ensemble of Vision Transformers [0.0]
グリオ芽腫は最も攻撃的で致命的な脳腫瘍の1つである。
Brain Radiology Aided by Intelligent Neural NETworks (BRAINNET) は、堅牢な腫瘍セグメンテーションマスクを生成する。
論文 参考訳(メタデータ) (2023-11-09T18:55:27Z) - Multimodal CNN Networks for Brain Tumor Segmentation in MRI: A BraTS
2022 Challenge Solution [0.0]
この記事では、BraTS 2022の継続的評価課題への私たちの貢献について説明する。
術前MRIにおけるグリオーマ境界の自動検出のための,DeepSeg,nnU-Net,DeepSCANという,複数のディープラーニングフレームワークのアンサンブルを提案する。
Diceスコアが0.9294、0.8788、0.8803、Hausdorf距離が5.23、13.54、12.05のBraTSテストデータセットで、腫瘍全体、腫瘍コア、造影腫瘍をそれぞれ評価した。
論文 参考訳(メタデータ) (2022-12-19T09:14:23Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - H2NF-Net for Brain Tumor Segmentation using Multimodal MR Imaging: 2nd
Place Solution to BraTS Challenge 2020 Segmentation Task [96.49879910148854]
当社のH2NF-Netは、単一およびカスケードのHNF-Netを使用して、異なる脳腫瘍サブリージョンを分割します。
我々は、マルチモーダル脳腫瘍チャレンジ(BraTS)2020データセットでモデルをトレーニングし、評価した。
提案手法は,80名近い参加者のうち,brats 2020チャレンジセグメンテーションタスクで2位となった。
論文 参考訳(メタデータ) (2020-12-30T20:44:55Z) - Automatic Brain Tumor Segmentation with Scale Attention Network [1.7767466724342065]
マルチモーダル脳腫瘍チャレンジ2020(BraTS 2020)は、マルチパラメトリック磁気共鳴イメージング(mpMRI)で異なる自動アルゴリズムを比較する共通のプラットフォームを提供する
本稿では,異なるスケールで特徴写像から高レベルな意味論を取り入れた,低レベルな細部を取り入れた動的スケールアテンション機構を提案する。
術式はBraTS 2020で提供した369症例を用いて訓練し, 平均Dice similarity Coefficient (DSC) は0.8828, 0.8433, 0.8177, Hausdorff は95%, 5.2176, 17.9697, 13.4298 であった。
論文 参考訳(メタデータ) (2020-11-06T04:45:49Z) - Accurate Prostate Cancer Detection and Segmentation on Biparametric MRI
using Non-local Mask R-CNN with Histopathological Ground Truth [0.0]
我々は,bp-MRIにおける前立腺内病変の検出とセグメンテーションを改善するため,ディープラーニングモデルを開発した。
前立腺切除術による脱線をMRIでトレーニングした。
前立腺切除術をベースとした非局所的なMask R-CNNは、微調整と自己訓練により、すべての評価基準を大幅に改善した。
論文 参考訳(メタデータ) (2020-10-28T21:07:09Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。