論文の概要: Multi-institutional Validation of Two-Streamed Deep Learning Method for
Automated Delineation of Esophageal Gross Tumor Volume using planning-CT and
FDG-PETCT
- arxiv url: http://arxiv.org/abs/2110.05280v1
- Date: Mon, 11 Oct 2021 13:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 22:06:05.536447
- Title: Multi-institutional Validation of Two-Streamed Deep Learning Method for
Automated Delineation of Esophageal Gross Tumor Volume using planning-CT and
FDG-PETCT
- Title(参考訳): 計画CTとFDG-PETCTを用いた食道グロース腫瘍容積自動記述のための2ストリーム深層学習法の多施設検証
- Authors: Xianghua Ye, Dazhou Guo, Chen-kan Tseng, Jia Ge, Tsung-Min Hung,
Ping-Ching Pai, Yanping Ren, Lu Zheng, Xinli Zhu, Ling Peng, Ying Chen,
Xiaohua Chen, Chen-Yu Chou, Danni Chen, Jiaze Yu, Yuzhen Chen, Feiran Jiao,
Yi Xin, Lingyun Huang, Guotong Xie, Jing Xiao, Le Lu, Senxiang Yan, Dakai
Jin, Tsung-Ying Ho
- Abstract要約: 食道悪性腫瘍容積(GTV)コントゥーリングの現況は,高作業コストとユーザ間の変動を手作業で記述することに依存している。
1施設で開発された深層学習(DL)多モード食道GTVコンチューリングモデルの臨床的応用性を検証する。
- 参考スコア(独自算出の注目度): 14.312659667401302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The current clinical workflow for esophageal gross tumor volume
(GTV) contouring relies on manual delineation of high labor-costs and interuser
variability. Purpose: To validate the clinical applicability of a deep learning
(DL) multi-modality esophageal GTV contouring model, developed at 1 institution
whereas tested at multiple ones. Methods and Materials: We collected 606
esophageal cancer patients from four institutions. 252 institution-1 patients
had a treatment planning-CT (pCT) and a pair of diagnostic FDG-PETCT; 354
patients from other 3 institutions had only pCT. A two-streamed DL model for
GTV segmentation was developed using pCT and PETCT scans of a 148 patient
institution-1 subset. This built model had the flexibility of segmenting GTVs
via only pCT or pCT+PETCT combined. For independent evaluation, the rest 104
institution-1 patients behaved as unseen internal testing, and 354 institutions
2-4 patients were used for external testing. We evaluated manual revision
degrees by human experts to assess the contour-editing effort. The performance
of the deep model was compared against 4 radiation oncologists in a multiuser
study with 20 random external patients. Contouring accuracy and time were
recorded for the pre-and post-DL assisted delineation process. Results: Our
model achieved high segmentation accuracy in internal testing (mean Dice score:
0.81 using pCT and 0.83 using pCT+PET) and generalized well to external
evaluation (mean DSC: 0.80). Expert assessment showed that the predicted
contours of 88% patients need only minor or no revision. In multi-user
evaluation, with the assistance of a deep model, inter-observer variation and
required contouring time were reduced by 37.6% and 48.0%, respectively.
Conclusions: Deep learning predicted GTV contours were in close agreement with
the ground truth and could be adopted clinically with mostly minor or no
changes.
- Abstract(参考訳): 背景: 食道総腫瘍量(gtv)に関する現在の臨床ワークフローは, 人手による高コスト化とユーザ間変動に依存する。
目的: 深層学習(DL)多モード食道GTVコントゥーリングモデルの臨床的適用性を検証するため, 1施設で開発され, 複数の施設で試験を行った。
方法と材料: 食道癌606例を4施設から収集した。
252施設1患者は, 治療計画CT (pCT) と診断用FDG-PETCT (PETCT) を併用し, 他の3施設354例はpCTのみであった。
128施設1サブセットのpCTおよびPETCTスキャンを用いて,GTVセグメンテーションのための2ストリームDLモデルを開発した。
このモデルでは、pCTまたはpCT+PETCTの組み合わせでGTVをセグメンテーションする柔軟性があった。
独立した評価では, 残りの104施設1患者は内科検査に見えず, 354施設2-4患者が外科検査に使用された。
我々は,輪郭編集作業を評価するために,人間の専門家による手動修正度を評価した。
深部モデルの性能を放射線腫瘍学者4名と比較し, ランダムな外部患者20名を対象にマルチユーザ調査を行った。
また,dl前およびdl後脱ライン化過程の精度と時間について検討した。
結果: 本モデルは, 内部試験において高いセグメンテーション精度(pct: 0.81, pct+pet: 0.83)を達成し, 外部評価(dsc: 0.80)によく適合した。
エキスパート・アセスメントによると、88%の患者が予測した輪郭はマイナーかノーリビジョンのみを必要とする。
マルチユーザ評価では、深いモデルの助けを借りて、オブザーバ間のばらつきと必要なコントレーション時間をそれぞれ37.6%削減し、48.0%削減した。
結論: 深層学習は、GTVの輪郭は根本的真実と密接に一致しており、ほとんど変化なく臨床的に採用できると予測した。
関連論文リスト
- Incorporating Anatomical Awareness for Enhanced Generalizability and Progression Prediction in Deep Learning-Based Radiographic Sacroiliitis Detection [0.8248058061511542]
本研究の目的は, 深層学習モデルに解剖学的認識を取り入れることで, 一般化性を高め, 疾患進行の予測を可能にするかを検討することである。
モデルの性能は, 受信機動作特性曲線(AUC)下の領域, 精度, 感度, 特異性を用いて比較した。
論文 参考訳(メタデータ) (2024-05-12T20:02:25Z) - Random Expert Sampling for Deep Learning Segmentation of Acute Ischemic
Stroke on Non-contrast CT [2.0296858917615856]
急性期脳梗塞患者233例の非コントラストCTは260例であった。
U-Netベンチマークは、経験豊富な3人の神経放射線学者の基準アノテーションに基づいて、多数決とランダムな専門家サンプリングトレーニングスキームを用いて虚血性脳組織を分別するように訓練された。
ランダムな専門家サンプリングに基づいてトレーニングされたモデルでは、CT灌流に似た非コントラストCT上の急性虚血性脳組織の存在と位置を専門家よりも優れた一貫性で特定することができる。
論文 参考訳(メタデータ) (2023-09-07T16:59:38Z) - DeepCOVID-Fuse: A Multi-modality Deep Learning Model Fusing Chest
X-Radiographs and Clinical Variables to Predict COVID-19 Risk Levels [8.593516170110203]
DeepCOVID-Fuseは、新型コロナウイルス患者のリスクレベルを予測するディープラーニング融合モデルである。
CXRと臨床変数で訓練されたDeepCOVID-Fuseの精度は0.658であり、AUCは0.842である。
論文 参考訳(メタデータ) (2023-01-20T20:54:25Z) - Joint nnU-Net and Radiomics Approaches for Segmentation and Prognosis of
Head and Neck Cancers with PET/CT images [6.361835964390572]
3D nnU-Netアーキテクチャは原発性腫瘍とリンパ節の自動分節に同期的に採用された。
従来の放射能の特徴のみを含む3つの予後モデルが構築された。
セグメンテーションと予後タスクの評価指標としてDice scoreとC-indexが用いられた。
論文 参考訳(メタデータ) (2022-11-18T10:31:26Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Pointwise visual field estimation from optical coherence tomography in
glaucoma: a structure-function analysis using deep learning [12.70143462176992]
SAP(Standard Automated Perimetry)は、緑内障治療における視野(VF)の喪失を監視するための金の標準である。
我々は,光学コヒーレンス・トモグラフィー(OCT)スキャンによる点方向および全体的VF損失を推定する深層学習(DL)回帰モデルを開発し,検証した。
論文 参考訳(メタデータ) (2021-06-07T16:58:38Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - iPhantom: a framework for automated creation of individualized
computational phantoms and its application to CT organ dosimetry [58.943644554192936]
本研究の目的は、患者固有の幻覚やデジタル双眼鏡の自動作成のための新しいフレームワーク、iPhantomを開発し、検証することである。
この枠組みは、個々の患者のCT画像における放射線感受性臓器への放射線線量を評価するために応用される。
iPhantomは、アンカーオルガンのDice similarity Coefficients (DSC) >0.6の精度で全ての臓器の位置を正確に予測し、他のオルガンのDSCは0.3-0.9である。
論文 参考訳(メタデータ) (2020-08-20T01:50:49Z) - Integrative Analysis for COVID-19 Patient Outcome Prediction [53.11258640541513]
我々は、集中治療室入院の必要性を予測するために、人口統計、バイタルサイン、実験室の所見から、肺不透明度の放射能と非画像の特徴を組み合わせる。
また, 地域性肺炎を含む他の肺疾患にも適用できるが, 地域性肺炎に限らない。
論文 参考訳(メタデータ) (2020-07-20T19:08:50Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。