論文の概要: Convolutional neural network based deep-learning architecture for
intraprostatic tumour contouring on PSMA PET images in patients with primary
prostate cancer
- arxiv url: http://arxiv.org/abs/2008.03201v1
- Date: Fri, 7 Aug 2020 14:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 02:07:25.847910
- Title: Convolutional neural network based deep-learning architecture for
intraprostatic tumour contouring on PSMA PET images in patients with primary
prostate cancer
- Title(参考訳): 畳み込みニューラルネットワークを用いた前立腺癌におけるPSMA PET画像を用いた前立腺内腫瘍の深層学習アーキテクチャ
- Authors: Dejan Kostyszyn, Tobias Fechter, Nico Bartl, Anca L. Grosu, Christian
Gratzke, August Sigle, Michael Mix, Juri Ruf, Thomas F. Fassbender, Selina
Kiefer, Alisa S. Bettermann, Nils H. Nicolay, Simon Spohn, Maria U. Kramer,
Peter Bronsert, Hongqian Guo, Xuefeng Qiu, Feng Wang, Christoph Henkenberens,
Rudolf A. Werner, Dimos Baltas, Philipp T. Meyer, Thorsten Derlin, Mengxia
Chen, Constantinos Zamboglou
- Abstract要約: 本研究の目的は,PSMA-PETにおけるGTVの自動分割のための畳み込みニューラルネットワーク(CNN)を開発することである。
CNNは, [68Ga]PSMA-PETと[18F]PSMA-PETを用いて, 2施設152症例の訓練を行った。
- 参考スコア(独自算出の注目度): 3.214308133129678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate delineation of the intraprostatic gross tumour volume (GTV) is a
prerequisite for treatment approaches in patients with primary prostate cancer
(PCa). Prostate-specific membrane antigen positron emission tomography
(PSMA-PET) may outperform MRI in GTV detection. However, visual GTV delineation
underlies interobserver heterogeneity and is time consuming. The aim of this
study was to develop a convolutional neural network (CNN) for automated
segmentation of intraprostatic tumour (GTV-CNN) in PSMA-PET.
Methods: The CNN (3D U-Net) was trained on [68Ga]PSMA-PET images of 152
patients from two different institutions and the training labels were generated
manually using a validated technique. The CNN was tested on two independent
internal (cohort 1: [68Ga]PSMA-PET, n=18 and cohort 2: [18F]PSMA-PET, n=19) and
one external (cohort 3: [68Ga]PSMA-PET, n=20) test-datasets. Accordance between
manual contours and GTV-CNN was assessed with Dice-S{\o}rensen coefficient
(DSC). Sensitivity and specificity were calculated for the two internal
test-datasets by using whole-mount histology.
Results: Median DSCs for cohorts 1-3 were 0.84 (range: 0.32-0.95), 0.81
(range: 0.28-0.93) and 0.83 (range: 0.32-0.93), respectively. Sensitivities and
specificities for GTV-CNN were comparable with manual expert contours: 0.98 and
0.76 (cohort 1) and 1 and 0.57 (cohort 2), respectively. Computation time was
around 6 seconds for a standard dataset.
Conclusion: The application of a CNN for automated contouring of
intraprostatic GTV in [68Ga]PSMA- and [18F]PSMA-PET images resulted in a high
concordance with expert contours and in high sensitivities and specificities in
comparison with histology reference. This robust, accurate and fast technique
may be implemented for treatment concepts in primary PCa. The trained model and
the study's source code are available in an open source repository.
- Abstract(参考訳): 原発性前立腺癌 (PCa) に対する治療法として, 前立腺内腫瘍容積 (GTV) の正確な経過が必須である。
前立腺特異的膜抗原ポジトロン断層撮影(PSMA-PET)はGTV検出においてMRIより優れている。
しかし、視覚的なGTVデライン化は、サーバ間の異質性を理解し、時間を要する。
本研究の目的は,PSMA-PETにおけるGTV-CNNの自動分割のための畳み込みニューラルネットワーク(CNN)を開発することである。
方法: CNN (3D U-Net) は, 2施設152症例の [68Ga]PSMA-PET画像を用いて訓練し, 評価手法を用いてトレーニングラベルを手作業で作成した。
CNNは2つの独立した内部(コホート1: [68Ga]PSMA-PET, n=18およびコホート2: [18F]PSMA-PET, n=19)と1つの外部(コホート3: [68Ga]PSMA-PET, n=20)で試験された。
手動輪郭とGTV-CNNの一致をDice-S{\o}rensen coefficient (DSC)を用いて評価した。
内部テストデータセットの感度と特異性は全マウントヒストロジーを用いて算出した。
結果:コホート1-3の中間DSCは0.84(範囲:0.32-0.95),0.81(範囲:0.28-0.93),0.83(範囲:0.32-0.93)であった。
GTV-CNNの感度と特異性はそれぞれ0.98と0.76(コホート1)、1と0.57(コホート2)である。
計算時間は標準データセットで約6秒であった。
結論: [68Ga]PSMA-および[18F]PSMA-PET画像におけるGTVの自動コントゥーリングへのCNNの適用は, 組織学的基準と比較して, 専門家の輪郭と高い感度, 特異性に一致した。
このロバストで正確で高速なテクニックは、プライマリpcaの治療概念のために実装することができる。
トレーニングされたモデルと研究のソースコードは、オープンソースリポジトリから入手できる。
関連論文リスト
- Towards AI Lesion Tracking in PET/CT Imaging: A Siamese-based CNN Pipeline applied on PSMA PET/CT Scans [2.3432822395081807]
本研究はPET/CTスキャン間の病変追跡のためのSamese CNNアプローチを導入する。
本アルゴリズムは適切な病変のパッチを抽出し,対応する病変または非対応病変として病変のパッチペアを分類する訓練を施したシームズCNNに転送する。
異なる入力パッチタイプと2Dおよび3DのSiameseネットワークで実験が行われた。
論文 参考訳(メタデータ) (2024-06-13T17:06:15Z) - Analysis of the BraTS 2023 Intracranial Meningioma Segmentation Challenge [44.586530244472655]
我々はBraTS 2023の頭蓋内髄膜腫チャレンジの設計と結果について述べる。
BraTS髄膜腫チャレンジ(BraTS Meningioma Challenge)は、髄膜腫に焦点を当てた以前のBraTSグリオーマチャレンジとは異なる。
上層部は腫瘍,腫瘍コア,腫瘍全体の拡張のために0.976,0.976,0.964の病変中央値類似係数(DSC)を有していた。
論文 参考訳(メタデータ) (2024-05-16T03:23:57Z) - Automatic Quantification of Serial PET/CT Images for Pediatric Hodgkin Lymphoma Patients Using a Longitudinally-Aware Segmentation Network [7.225391135995692]
小児Hodgkinリンパ腫患者に対する経時的PET/CT画像の定量化について検討した。
LAS-Netは、PET1から関連する特徴を伝達し、PET2の分析を知らせる。
F1スコア0.606のPET2の残存リンパ腫をLAS-Netが検出した。
論文 参考訳(メタデータ) (2024-04-12T17:20:57Z) - Neural Network-Based Histologic Remission Prediction In Ulcerative
Colitis [38.150634108667774]
潰瘍性大腸炎(UC)の新しい治療標的としての組織学的寛解
内視鏡(Endocytoscopy、EC)は、新しい超高倍率内視鏡技術である。
本稿では,心電図の組織学的疾患活動を評価するニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T15:54:14Z) - An open-source deep learning algorithm for efficient and fully-automatic
analysis of the choroid in optical coherence tomography [3.951995351344523]
我々は,光コヒーレンストモグラフィー(OCT)データにおける脈絡膜領域分割のための,オープンソースの完全自動ディープラーニングアルゴリズムであるDeepGPETを開発した。
論文 参考訳(メタデータ) (2023-07-03T10:01:36Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Multimodal Deep Learning to Differentiate Tumor Recurrence from
Treatment Effect in Human Glioblastoma [2.726462580631231]
治療関連壊死(TN)と腫瘍進展(TP)の鑑別は、グリオ芽腫(GBM)の臨床管理決定に重要である
dPETは、運動情報を明らかにするパラメトリックマップを計算するために、部分体積平均を考慮に入れたモデル補正血液入力関数の新しい方法を含む。
CNNはPET-MR画像空間の26ドルの被験者から、TPとTNの分類精度を35ドルの脳腫瘍で予測する訓練を受けた。
論文 参考訳(メタデータ) (2023-02-27T20:12:28Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - COVID-MTL: Multitask Learning with Shift3D and Random-weighted Loss for
Automated Diagnosis and Severity Assessment of COVID-19 [39.57518533765393]
新型コロナウイルスの正確かつ効果的な評価を支援する自動化方法が緊急に必要である。
我々は,放射線学とNATの両方において,自動かつ同時検出と重症度評価が可能なエンドツーエンドマルチタスク学習フレームワーク(COVID-MTL)を提案する。
論文 参考訳(メタデータ) (2020-12-10T08:30:46Z) - Machine Learning Automatically Detects COVID-19 using Chest CTs in a
Large Multicenter Cohort [43.99203831722203]
16施設2096例の胸部CT検査を行った。
新型コロナウイルスの分類のためのメートル法に基づくアプローチは、解釈可能な特徴を使用した。
深層学習に基づく分類器は,CT減衰から抽出した3D特徴と空域不透明度の確率分布を区別した。
論文 参考訳(メタデータ) (2020-06-09T00:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。