論文の概要: Slice-by-slice deep learning aided oropharyngeal cancer segmentation
with adaptive thresholding for spatial uncertainty on FDG PET and CT images
- arxiv url: http://arxiv.org/abs/2207.01623v1
- Date: Mon, 4 Jul 2022 15:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 06:54:12.774984
- Title: Slice-by-slice deep learning aided oropharyngeal cancer segmentation
with adaptive thresholding for spatial uncertainty on FDG PET and CT images
- Title(参考訳): FDG PETとCT画像の空間的不確実性に対する適応しきい値付き喉頭癌セグメント化によるスライス・バイ・スライス深層学習
- Authors: Alessia De Biase, Nanna Maria Sijtsema, Lisanne van Dijk, Johannes A.
Langendijk, Peter van Ooijen
- Abstract要約: 腫瘍セグメンテーションは放射線治療計画の基本的なステップである。
本研究は,GTVpスライス・バイ・スライス・スライス・スライス・セグメンテーションにおける放射線医学者を支援するための新しい自動深層学習(DL)モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tumor segmentation is a fundamental step for radiotherapy treatment planning.
To define an accurate segmentation of the primary tumor (GTVp) of oropharyngeal
cancer patients (OPC), simultaneous assessment of different image modalities is
needed, and each image volume is explored slice-by-slice from different
orientations. Moreover, the manual fixed boundary of segmentation neglects the
spatial uncertainty known to occur in tumor delineation. This study proposes a
novel automatic deep learning (DL) model to assist radiation oncologists in a
slice-by-slice adaptive GTVp segmentation on registered FDG PET/CT images. We
included 138 OPC patients treated with (chemo)radiation in our institute. Our
DL framework exploits both inter and intra-slice context. Sequences of 3
consecutive 2D slices of concatenated FDG PET/CT images and GTVp contours were
used as input. A 3-fold cross validation was performed three times, training on
sequences extracted from the Axial (A), Sagittal (S), and Coronal (C) plane of
113 patients. Since consecutive sequences in a volume contain overlapping
slices, each slice resulted in three outcome predictions that were averaged. In
the A, S, and C planes, the output shows areas with different probabilities of
predicting the tumor. The performance of the models was assessed on 25 patients
at different probability thresholds using the mean Dice Score Coefficient
(DSC). Predictions were the closest to the ground truth at a probability
threshold of 0.9 (DSC of 0.70 in the A, 0.77 in the S, and 0.80 in the C
plane). The promising results of the proposed DL model show that the
probability maps on registered FDG PET/CT images could guide radiation
oncologists in a slice-by-slice adaptive GTVp segmentation.
- Abstract(参考訳): 腫瘍セグメンテーションは放射線治療計画の基本的なステップである。
口腔咽頭癌患者(OPC)の原発性腫瘍(GTVp)の正確なセグメンテーションを定義するには、異なる画像モダリティの同時評価が必要であり、各画像容積を異なる方向からスライス・バイ・スライスする。
さらに,手動によるセグメンテーションの固定境界は,腫瘍の脱線で発生する空間的不確実性を無視している。
本研究では,FDG PET/CT画像のスライス・バイ・スライス・アダプティブGTVpセグメンテーションにおいて,放射線医学者を支援する新しい深層学習モデルを提案する。
当院ではopc患者138名に化学放射線療法を施行した。
我々のDLフレームワークは、インタースライスとイントラスライスの両方を利用する。
コンカレントFDG PET/CT画像とGTVp輪郭画像の連続2Dスライスを入力として用いた。
3倍のクロス検証を行い,113例の軸(a),矢状(s),コロナ(c)面から抽出した配列を訓練した。
ボリュームの連続シーケンスは重複スライスを含むため、各スライスの結果、平均3つの結果予測結果が得られた。
a面、s面、c面において、出力は腫瘍を予測する確率が異なる領域を示す。
Dice Score Coefficient (DSC) を用いて, 確率閾値の異なる25例を対象に, モデルの性能評価を行った。
予測は、確率しきい値0.9 (dsc は a で 0.70 であり、s では 0.77 であり、c 平面では 0.80 である。
登録されたfdg pet/ct画像の確率マップは,slice-by-slice適応gtvpセグメンテーションにおいて放射線腫瘍学者を誘導する可能性が示唆された。
関連論文リスト
- Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Validated respiratory drug deposition predictions from 2D and 3D medical
images with statistical shape models and convolutional neural networks [47.187609203210705]
患者固有の沈着モデリングのための自動計算フレームワークを開発し,検証することを目的としている。
2次元胸部X線と3次元CT画像から3次元患者の呼吸動態を生成できる画像処理手法が提案されている。
論文 参考訳(メタデータ) (2023-03-02T07:47:07Z) - Acute ischemic stroke lesion segmentation in non-contrast CT images
using 3D convolutional neural networks [0.0]
非コントラストCT脳画像における急性虚血性脳梗塞の容積分画を目的とした自動アルゴリズムを提案する。
我々のディープラーニングアプローチは、人気のある3D U-Net畳み込みニューラルネットワークアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-01-17T10:39:39Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Segmentation and Risk Score Prediction of Head and Neck Cancers in
PET/CT Volumes with 3D U-Net and Cox Proportional Hazard Neural Networks [0.4433315630787158]
PET/CT画像から腫瘍の分節化を行うために3D nnU-Netモデルを用いて残層を圧縮・励起法(SE法)により補足した。
セグメンテッド病変から抽出したPET/CT放射能の特徴について, 危険リスク予測モデル (CoxCC) を訓練した。
10倍のクロスバリデードCoxCCモデルにより、HECKTORチャレンジテストデータセットにおいて、c-indexバリデーションスコアが0.89、c-indexスコアが0.61となった。
論文 参考訳(メタデータ) (2022-02-16T01:59:33Z) - PA-ResSeg: A Phase Attention Residual Network for Liver Tumor
Segmentation from Multi-phase CT Images [19.725599681891925]
肝腫瘍分節の多相特徴をモデル化するための位相注意残差ネットワーク(pa-resseg)を提案する。
提案手法は, 異なるデータセットと異なるバックボーンにおけるロバスト性と一般化能力を示す。
論文 参考訳(メタデータ) (2021-02-27T17:30:09Z) - Detecting Scatteredly-Distributed, Small, andCritically Important
Objects in 3D OncologyImaging via Decision Stratification [23.075722503902714]
本研究は腫瘍学的に重要なリンパ節(または不審な癌転移)の検出と分節に焦点を当てた。
我々はOSLNを腫瘍近位・腫瘍遠位分類に分割する分断型決定階層化手法を提案する。
局所的な3D画像パッチから得られた特徴と高次病変特性を組み合わせた新しいグローバルローカルネットワーク(GLNet)を提案する。
論文 参考訳(メタデータ) (2020-05-27T23:12:11Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。