論文の概要: A Bayesian approach to tissue-fraction estimation for oncological PET
segmentation
- arxiv url: http://arxiv.org/abs/2003.00317v3
- Date: Fri, 27 May 2022 22:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:26:51.024868
- Title: A Bayesian approach to tissue-fraction estimation for oncological PET
segmentation
- Title(参考訳): ベイズ法による腫瘍性pet分節の組織破壊評価
- Authors: Ziping Liu, Joyce C. Mhlanga, Richard Laforest, Paul-Robert
Derenoncourt, Barry A. Siegel, Abhinav K. Jha
- Abstract要約: 腫瘍性PETにおける腫瘍のセグメンテーションは、システム解像度が低く、ボクセルサイズが有限であるために生じる部分体積効果のために困難である。
腫瘍学的PETセグメンテーションのための組織破壊評価のためのベイズ的アプローチを提案する。
ACRIN 6668/RTOG 0235多施設臨床試験のステージIIB/III非小細胞肺癌の臨床像を用いて評価した。
- 参考スコア(独自算出の注目度): 0.13048920509133805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tumor segmentation in oncological PET is challenging, a major reason being
the partial-volume effects that arise due to low system resolution and finite
voxel size. The latter results in tissue-fraction effects, i.e. voxels contain
a mixture of tissue classes. Conventional segmentation methods are typically
designed to assign each voxel in the image as belonging to a certain tissue
class. Thus, these methods are inherently limited in modeling tissue-fraction
effects. To address the challenge of accounting for partial-volume effects, and
in particular, tissue-fraction effects, we propose a Bayesian approach to
tissue-fraction estimation for oncological PET segmentation. Specifically, this
Bayesian approach estimates the posterior mean of fractional volume that the
tumor occupies within each voxel of the image. The proposed method, implemented
using a deep-learning-based technique, was first evaluated using clinically
realistic 2-D simulation studies with known ground truth, in the context of
segmenting the primary tumor in PET images of patients with lung cancer. The
evaluation studies demonstrated that the method accurately estimated the
tumor-fraction areas and significantly outperformed widely used conventional
PET segmentation methods, including a U-net-based method, on the task of
segmenting the tumor. In addition, the proposed method was relatively
insensitive to partial-volume effects and yielded reliable tumor segmentation
for different clinical-scanner configurations. The method was then evaluated
using clinical images of patients with stage IIB/III non-small cell lung cancer
from ACRIN 6668/RTOG 0235 multi-center clinical trial. Here, the results showed
that the proposed method significantly outperformed all other considered
methods and yielded accurate tumor segmentation on patient images with Dice
similarity coefficient (DSC) of 0.82 (95 % CI: [0.78, 0.86]).
- Abstract(参考訳): 腫瘍の分画は腫瘍学的petでは困難であり,低分解能と有限ボクセルサイズに起因する部分体積効果が主な原因である。
後者は組織破壊効果、すなわちボクセルは組織クラスを混合したものを含む。
従来のセグメンテーション法は通常、画像内の各ボクセルを特定の組織クラスに属するものとして割り当てるように設計されている。
したがって、これらの方法は本質的に組織破壊効果のモデル化に制限がある。
部分体積効果,特に組織破壊効果の計算の課題に対処し,腫瘍性pet分節の組織破壊評価へのベイズ的アプローチを提案する。
特に、このベイズ的アプローチは、画像の各ボクセル内にある腫瘍が占める分数体積の後方平均を推定する。
深層学習法を用いて実施した本手法は,肺がん患者のPET画像における原発性腫瘍の分画という文脈において,臨床的に現実的な2次元シミュレーションを用いて評価した。
その結果,U-net法を含む従来のPETセグメンテーション法では,腫瘍のセグメンテーションの課題において,腫瘍の断面積を正確に推定し,極めて優れていた。
さらに, 提案法は, 部分体積効果に比較的敏感であり, 異なる臨床スキャナー構成に対して, 信頼性の高い腫瘍セグメンテーションが得られた。
ACRIN 6668/RTOG 0235多施設臨床試験のステージIIB/III非小細胞肺癌の臨床像を用いて評価した。
その結果,Dice similarity coefficient (DSC) が0.82 (95 % CI: [0.78, 0.86]) の患者画像に対して, 提案法は, 他の検討方法よりも有意に優れていた。
関連論文リスト
- A Localization-to-Segmentation Framework for Automatic Tumor
Segmentation in Whole-Body PET/CT Images [8.0523823243864]
本稿では,腫瘍の正確な分節化のための局在化・分節化フレームワーク(L2SNet)を提案する。
L2SNetは、まず、病変の局所化段階における可能性のある病変を局在させ、次いで、病変の分節フェーズにおけるセグメント化結果を形成するために位置手がかりを使用する。
全身FDG-PET/CTチャレンジデータセットにおけるMII自動病変を用いた実験により,本手法が競争力のある結果を示した。
論文 参考訳(メタデータ) (2023-09-11T13:39:15Z) - Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Multi-Scale Input Strategies for Medulloblastoma Tumor Classification
using Deep Transfer Learning [59.30734371401316]
乳腺芽腫は小児で最も多い悪性脳腫瘍である。
CNNはMBサブタイプ分類に有望な結果を示した。
タイルサイズと入力戦略の影響について検討した。
論文 参考訳(メタデータ) (2021-09-14T09:42:37Z) - Systematic Clinical Evaluation of A Deep Learning Method for Medical
Image Segmentation: Radiosurgery Application [48.89674088331313]
3次元医用画像分割作業において,Deep Learning (DL) 手法を体系的に評価した。
本手法は放射線外科治療プロセスに統合され,臨床ワークフローに直接影響を及ぼす。
論文 参考訳(メタデータ) (2021-08-21T16:15:40Z) - Deep PET/CT fusion with Dempster-Shafer theory for lymphoma segmentation [17.623576885481747]
PET/CTボリュームからのリンパ腫の検出とセグメンテーションは外科的適応と放射線治療に不可欠である。
PET/CT融合層を有するUNetを用いた悪性リンパ腫のセグメンテーションモデルを提案する。
Diceスコア0.726で正確なセグメンテーション結果を得る。
論文 参考訳(メタデータ) (2021-08-11T19:24:40Z) - Evidential segmentation of 3D PET/CT images [20.65495780362289]
3D PET/CT画像におけるリンパ腫のセグメント化には、信念関数に基づくセグメンテーション法が提案されている。
アーキテクチャは特徴抽出モジュールと明白なセグメンテーション(ES)モジュールで構成されている。
びまん性大細胞性b細胞リンパ腫173例のデータベース上で評価した。
論文 参考訳(メタデータ) (2021-04-27T16:06:27Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。