論文の概要: Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning
- arxiv url: http://arxiv.org/abs/2402.07746v1
- Date: Mon, 12 Feb 2024 16:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 13:42:31.973783
- Title: Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning
- Title(参考訳): 深層学習を用いたCTおよびMRIにおける軟部腫瘍の最小相互分離
- Authors: Douwe J. Spaanderman (1), Martijn P. A. Starmans (1), Gonnie C. M. van
Erp (1), David F. Hanff (1), Judith H. Sluijter (1), Anne-Rose W. Schut (2
and 3), Geert J. L. H. van Leenders (4), Cornelis Verhoef (2), Dirk J.
Grunhagen (2), Wiro J. Niessen (5), Jacob J. Visser (1), Stefan Klein (1)
((1) Department of Radiology and Nuclear Medicine, Erasmus MC, Rotterdam, the
Netherlands, (2) Department of Surgical Oncology, Erasmus MC Cancer
Institute, Rotterdam, the Netherlands, (3) Department of Medical Oncology,
Erasmus MC Cancer Institute, Rotterdam, the Netherlands, (4) Department of
Pathology, Erasmus MC Cancer Institute, Rotterdam, the Netherlands, (5)
Faculty of Medical Sciences, University of Groningen, Groningen, The
Netherlands)
- Abstract要約: 我々は,CTおよびMRIを用いたソフト・タウト・腫瘍(STT)のための,最小限の対話型深層学習に基づくセグメンテーション法を開発した。
この方法は、畳み込みニューラルネットワークの入力として、腫瘍の極端な境界付近で6つの点をクリックする必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Segmentations are crucial in medical imaging to obtain morphological,
volumetric, and radiomics biomarkers. Manual segmentation is accurate but not
feasible in the radiologist's clinical workflow, while automatic segmentation
generally obtains sub-par performance. We therefore developed a minimally
interactive deep learning-based segmentation method for soft-tissue tumors
(STTs) on CT and MRI. The method requires the user to click six points near the
tumor's extreme boundaries. These six points are transformed into a distance
map and serve, with the image, as input for a Convolutional Neural Network. For
training and validation, a multicenter dataset containing 514 patients and nine
STT types in seven anatomical locations was used, resulting in a Dice
Similarity Coefficient (DSC) of 0.85$\pm$0.11 (mean $\pm$ standard deviation
(SD)) for CT and 0.84$\pm$0.12 for T1-weighted MRI, when compared to manual
segmentations made by expert radiologists. Next, the method was externally
validated on a dataset including five unseen STT phenotypes in extremities,
achieving 0.81$\pm$0.08 for CT, 0.84$\pm$0.09 for T1-weighted MRI, and
0.88\pm0.08 for previously unseen T2-weighted fat-saturated (FS) MRI. In
conclusion, our minimally interactive segmentation method effectively segments
different types of STTs on CT and MRI, with robust generalization to previously
unseen phenotypes and imaging modalities.
- Abstract(参考訳): セグメンテーションは、形態学的、体積的、放射線学的バイオマーカーを得るために医療画像において重要である。
手動セグメンテーションは正確であるが、放射線科医の臨床的ワークフローでは実現不可能である。
そこで我々は,ct および mri 上の軟部腫瘍 (stts) に対する,最小対話型深層学習に基づく分節法を開発した。
この方法では、腫瘍の境界付近の6箇所をクリックする必要がある。
これら6つの点は距離マップに変換され、畳み込みニューラルネットワークの入力として画像と共に機能する。
訓練と検証には,7つの解剖学的位置において514人の患者と9種類のSTT型を含むマルチセンターデータセットを用いて,CTでは0.85$\pm$0.11 (mean $\pm$ standard deviation (SD)),T1強調MRIでは0.84$\pm$0.12のDice similarity Coefficient (DSC)を使用した。
次に, T1強調MRIでは0.81$\pm$0.08, T1強調MRIでは0.84$\pm$0.09, T2強調MRIでは0.88\pm0.08であった。
結論として,本手法はCTとMRIの異なる種類のSTTを効果的に分割し,表現型や画像モダリティに頑健な一般化を行う。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Large-Scale Multi-Center CT and MRI Segmentation of Pancreas with Deep Learning [20.043497517241992]
膵疾患の診断と経過観察には膵の容積分画の自動化が必要である。
そこで我々は,nnUNetとTransformerネットワークの長所と,ボリューム計算が可能な新しい線形アテンションモジュールを組み合わせたPanSegNetを開発した。
T1W MRIは85.0% (std: 7.9%) , T2W MRIは86.3% (std: 6.4%) であった。
論文 参考訳(メタデータ) (2024-05-20T20:37:27Z) - MRSegmentator: Robust Multi-Modality Segmentation of 40 Classes in MRI and CT Sequences [4.000329151950926]
このモデルは、英国バイオバンクの1200個の手動のMRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確に定義された臓器のセグメンテーションにおいて高い精度を示し、Dice similarity Coefficient(DSC)スコアは左右の肺では0.97、心臓では0.95であった。
また、肝臓 (DSC: 0.96) や腎臓 (DSC: 0.95 left, 0.95 right) のような臓器の頑健性も示し、より可変性を示した。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - Learned Local Attention Maps for Synthesising Vessel Segmentations [43.314353195417326]
我々は、T2 MRIのみから、Willis(CoW)円の主大脳動脈の分節を合成するためのエンコーダ・デコーダモデルを提案する。
これは、セグメンテーションラベルを拡張することによって生成された学習されたローカルアテンションマップを使用し、ネットワークはCoWの合成に関連するT2 MRIからのみ情報を抽出する。
論文 参考訳(メタデータ) (2023-08-24T15:32:27Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - One shot PACS: Patient specific Anatomic Context and Shape prior aware
recurrent registration-segmentation of longitudinal thoracic cone beam CTs [3.3504365823045044]
胸部CBCTは, 造影コントラスト, 画像所見, 呼吸運動, 胸腔内解剖学的変化により, 分画が困難である。
縦型CBCTセグメンテーションのための新規な患者固有の解剖コンテキストと先行形状, PACS-3Dリカレントレジストレーションネットワークを開発した。
論文 参考訳(メタデータ) (2022-01-26T15:18:30Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - PSIGAN: Joint probabilistic segmentation and image distribution matching
for unpaired cross-modality adaptation based MRI segmentation [4.573421102994323]
我々は、新しい関節確率分割と画像分布マッチング生成対向ネットワーク(PSIGAN)を開発した。
我々のUDAアプローチは、画像とセグメント間の共依存性を共同確率分布としてモデル化する。
T1wは0.87,T2wは0.90であった。
論文 参考訳(メタデータ) (2020-07-18T16:23:02Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。