論文の概要: Large-Scale Multi-Center CT and MRI Segmentation of Pancreas with Deep Learning
- arxiv url: http://arxiv.org/abs/2405.12367v3
- Date: Fri, 25 Oct 2024 03:48:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:34:05.011618
- Title: Large-Scale Multi-Center CT and MRI Segmentation of Pancreas with Deep Learning
- Title(参考訳): 深層学習による膵の大規模マルチセンターCTとMRI分割
- Authors: Zheyuan Zhang, Elif Keles, Gorkem Durak, Yavuz Taktak, Onkar Susladkar, Vandan Gorade, Debesh Jha, Asli C. Ormeci, Alpay Medetalibeyoglu, Lanhong Yao, Bin Wang, Ilkin Sevgi Isler, Linkai Peng, Hongyi Pan, Camila Lopes Vendrami, Amir Bourhani, Yury Velichko, Boqing Gong, Concetto Spampinato, Ayis Pyrros, Pallavi Tiwari, Derk C. F. Klatte, Megan Engels, Sanne Hoogenboom, Candice W. Bolan, Emil Agarunov, Nassier Harfouch, Chenchan Huang, Marco J. Bruno, Ivo Schoots, Rajesh N. Keswani, Frank H. Miller, Tamas Gonda, Cemal Yazici, Temel Tirkes, Baris Turkbey, Michael B. Wallace, Ulas Bagci,
- Abstract要約: 膵疾患の診断と経過観察には膵の容積分画の自動化が必要である。
そこで我々は,nnUNetとTransformerネットワークの長所と,ボリューム計算が可能な新しい線形アテンションモジュールを組み合わせたPanSegNetを開発した。
T1W MRIは85.0% (std: 7.9%) , T2W MRIは86.3% (std: 6.4%) であった。
- 参考スコア(独自算出の注目度): 20.043497517241992
- License:
- Abstract: Automated volumetric segmentation of the pancreas on cross-sectional imaging is needed for diagnosis and follow-up of pancreatic diseases. While CT-based pancreatic segmentation is more established, MRI-based segmentation methods are understudied, largely due to a lack of publicly available datasets, benchmarking research efforts, and domain-specific deep learning methods. In this retrospective study, we collected a large dataset (767 scans from 499 participants) of T1-weighted (T1W) and T2-weighted (T2W) abdominal MRI series from five centers between March 2004 and November 2022. We also collected CT scans of 1,350 patients from publicly available sources for benchmarking purposes. We developed a new pancreas segmentation method, called PanSegNet, combining the strengths of nnUNet and a Transformer network with a new linear attention module enabling volumetric computation. We tested PanSegNet's accuracy in cross-modality (a total of 2,117 scans) and cross-center settings with Dice and Hausdorff distance (HD95) evaluation metrics. We used Cohen's kappa statistics for intra and inter-rater agreement evaluation and paired t-tests for volume and Dice comparisons, respectively. For segmentation accuracy, we achieved Dice coefficients of 88.3% (std: 7.2%, at case level) with CT, 85.0% (std: 7.9%) with T1W MRI, and 86.3% (std: 6.4%) with T2W MRI. There was a high correlation for pancreas volume prediction with R^2 of 0.91, 0.84, and 0.85 for CT, T1W, and T2W, respectively. We found moderate inter-observer (0.624 and 0.638 for T1W and T2W MRI, respectively) and high intra-observer agreement scores. All MRI data is made available at https://osf.io/kysnj/. Our source code is available at https://github.com/NUBagciLab/PaNSegNet.
- Abstract(参考訳): 膵疾患の診断と経過観察には,横断的画像診断における膵の容積分画の自動化が必要である。
CTベースの膵セグメンテーションはより確立されているが、MRIベースのセグメンテーション手法は、公開データセットの欠如、ベンチマーク研究の努力、ドメイン固有のディープラーニング手法が主な原因である。
2004年3月から2022年11月にかけて,T1強調画像(T1W)とT2強調画像(T2W)の大規模なデータセット(499名)を収集した。
また,ベンチマーク目的で公開資料から1,350人の患者のCTも収集した。
そこで我々は,nnUNetとTransformerネットワークの長所と,体積計算が可能な新しい線形アテンションモジュールを組み合わせた,パンセグネットと呼ばれる新しい膵分画法を開発した。
我々は,Dice と Hausdorff 距離 (HD95) 評価指標を用いて,PanSegNet のクロスモダリティ (合計2,117スキャン) とクロスセンター設定の精度を検証した。
我々は,CohenのKappa統計を,それぞれ量比較とDice比較のペアt検定に用いた。
T1W MRIでは85.0% (std: 7.9%) , T2W MRIでは86.3% (std: 6.4%) であった。
R^2は0.91,0.84,0.85はCT,T1W,T2Wと高い相関を示した。
0.624,0.638,T1W,T2WMRIにて中等度なサーバ間一致率を示し,高いサーバ内一致率を示した。
すべてのMRIデータはhttps://osf.io/kysnj/で公開されている。
ソースコードはhttps://github.com/NUBagciLab/PaNSegNetで公開されています。
関連論文リスト
- Deep learning-based brain segmentation model performance validation with clinical radiotherapy CT [0.0]
本研究はCT(Computed Tomography)におけるSynthSegのロバスト脳セグメンテーションモデルを検証する。
The Freesurfer Imaging SuiteのコンポーネントであるSynthSegモデルを用いて、CTとMRIから脳のセグメンテーションを得た。
総合的なQCスコアに基づいてCTの性能はMRIより低いが,QCベースの閾値設定では低品質なセグメンテーションを除外できる。
論文 参考訳(メタデータ) (2024-06-25T09:56:30Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Simultaneous Deep Learning of Myocardium Segmentation and T2 Quantification for Acute Myocardial Infarction MRI [21.20007613833789]
本稿では,TransformerとConvolutional Neural Network(CNN)を統合したデュアルタスクネットワークであるSQNetを提案する。
SQNetは、定量分析のためのT2リファインフュージョンデコーダを備え、Transformerのグローバル機能を活用している。
タイトな結合モジュールは、CNNとTransformerブランチの機能を調整してヒューズし、SQNetが心筋領域に集中できるようにする。
論文 参考訳(メタデータ) (2024-05-17T06:50:37Z) - MRSegmentator: Robust Multi-Modality Segmentation of 40 Classes in MRI and CT Sequences [4.000329151950926]
このモデルは、英国バイオバンクの1200個の手動のMRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確に定義された臓器のセグメンテーションにおいて高い精度を示し、Dice similarity Coefficient(DSC)スコアは左右の肺では0.97、心臓では0.95であった。
また、肝臓 (DSC: 0.96) や腎臓 (DSC: 0.95 left, 0.95 right) のような臓器の頑健性も示し、より可変性を示した。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning [0.0]
我々は,CTおよびMRIを用いたソフト・タウト・腫瘍(STT)のための,最小限の対話型深層学習に基づくセグメンテーション法を開発した。
この方法は、畳み込みニューラルネットワークの入力として、腫瘍の極端な境界付近で6つの点をクリックする必要がある。
論文 参考訳(メタデータ) (2024-02-12T16:15:28Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。