論文の概要: Multimodal Deep Learning to Differentiate Tumor Recurrence from
Treatment Effect in Human Glioblastoma
- arxiv url: http://arxiv.org/abs/2302.14124v1
- Date: Mon, 27 Feb 2023 20:12:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:00:05.810493
- Title: Multimodal Deep Learning to Differentiate Tumor Recurrence from
Treatment Effect in Human Glioblastoma
- Title(参考訳): ヒトグリオ芽腫の治療効果と腫瘍再発の鑑別のためのマルチモーダルディープラーニング
- Authors: Tonmoy Hossain, Zoraiz Qureshi, Nivetha Jayakumar, Thomas Eluvathingal
Muttikkal, Sohil Patel, David Schiff, Miaomiao Zhang and Bijoy Kundu
- Abstract要約: 治療関連壊死(TN)と腫瘍進展(TP)の鑑別は、グリオ芽腫(GBM)の臨床管理決定に重要である
dPETは、運動情報を明らかにするパラメトリックマップを計算するために、部分体積平均を考慮に入れたモデル補正血液入力関数の新しい方法を含む。
CNNはPET-MR画像空間の26ドルの被験者から、TPとTNの分類精度を35ドルの脳腫瘍で予測する訓練を受けた。
- 参考スコア(独自算出の注目度): 2.726462580631231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentiating tumor progression (TP) from treatment-related necrosis (TN)
is critical for clinical management decisions in glioblastoma (GBM). Dynamic
FDG PET (dPET), an advance from traditional static FDG PET, may prove
advantageous in clinical staging. dPET includes novel methods of a
model-corrected blood input function that accounts for partial volume averaging
to compute parametric maps that reveal kinetic information. In a preliminary
study, a convolution neural network (CNN) was trained to predict classification
accuracy between TP and TN for $35$ brain tumors from $26$ subjects in the
PET-MR image space. 3D parametric PET Ki (from dPET), traditional static PET
standardized uptake values (SUV), and also the brain tumor MR voxels formed the
input for the CNN. The average test accuracy across all leave-one-out
cross-validation iterations adjusting for class weights was $0.56$ using only
the MR, $0.65$ using only the SUV, and $0.71$ using only the Ki voxels.
Combining SUV and MR voxels increased the test accuracy to $0.62$. On the other
hand, MR and Ki voxels increased the test accuracy to $0.74$. Thus, dPET
features alone or with MR features in deep learning models would enhance
prediction accuracy in differentiating TP vs TN in GBM.
- Abstract(参考訳): 治療関連壊死(TN)と腫瘍進展(TP)の鑑別は,グリオ芽腫(GBM)の臨床管理決定に重要である。
従来の静的FDG PETの進歩である動的FDG PET(dPET)は、臨床段階において有利である。
dPETは、運動情報を明らかにするパラメトリックマップを計算するために、部分体積平均を考慮に入れたモデル補正血液入力関数の新しい方法を含む。
予備研究では、PET-MR画像空間の26ドルの被験者から35ドルの脳腫瘍に対して、TPとTNの分類精度を予測するために、畳み込みニューラルネットワーク(CNN)が訓練された。
3DパラメトリックPET Ki(dPET)、従来の静的PET標準取り込み値(SUV)、および脳腫瘍MRボクセルがCNNの入力を形成した。
クラス重量を調整した全ての単発クロスバリデーション・イテレーションの平均テスト精度は、MRのみを使用する0.56ドル、SUVのみを使用する0.65ドル、Kiボクセルのみを使用する0.71ドルであった。
SUVとMRボクセルを組み合わせることで、試験精度は0.62ドルに向上した。
一方、MRとKiのボクセルは試験精度を0.74ドルに引き上げた。
したがって、ディープラーニングモデルにおけるdPET機能単独またはMR機能により、GBMにおけるTPとTNの差別化における予測精度が向上する。
関連論文リスト
- Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Towards AI Lesion Tracking in PET/CT Imaging: A Siamese-based CNN Pipeline applied on PSMA PET/CT Scans [2.3432822395081807]
本研究はPET/CTスキャン間の病変追跡のためのSamese CNNアプローチを導入する。
本アルゴリズムは適切な病変のパッチを抽出し,対応する病変または非対応病変として病変のパッチペアを分類する訓練を施したシームズCNNに転送する。
異なる入力パッチタイプと2Dおよび3DのSiameseネットワークで実験が行われた。
論文 参考訳(メタデータ) (2024-06-13T17:06:15Z) - Automatic Quantification of Serial PET/CT Images for Pediatric Hodgkin Lymphoma Patients Using a Longitudinally-Aware Segmentation Network [7.225391135995692]
小児Hodgkinリンパ腫患者に対する経時的PET/CT画像の定量化について検討した。
LAS-Netは、PET1から関連する特徴を伝達し、PET2の分析を知らせる。
F1スコア0.606のPET2の残存リンパ腫をLAS-Netが検出した。
論文 参考訳(メタデータ) (2024-04-12T17:20:57Z) - Revolutionizing Disease Diagnosis with simultaneous functional PET/MR and Deeply Integrated Brain Metabolic, Hemodynamic, and Perfusion Networks [40.986069119392944]
マルチモーダルなMiXture-of-expertsアライメント再構成とモデルであるMX-ARMを提案する。
モダリティは分離可能で交換可能であり、異なる多層パーセプトロン(「専門家の混合」)を学習可能な重みを通して動的に割り当て、異なるモダリティからそれぞれの表現を学ぶ。
論文 参考訳(メタデータ) (2024-03-29T08:47:49Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Improved automated lesion segmentation in whole-body FDG/PET-CT via
Test-Time Augmentation [5.206955554317389]
腫瘍はポジトロン・エミッション・トモグラフィー(PET)とCT(CT)を用いて広範囲に定量化されている
本研究では,PET-CTによる腫瘍の分節化に対する試験時間増強の有用性について検討した。
トレーニングデータベース上でU-NetとSwin U-Netrをトレーニングし、テスト時間の増加によってセグメンテーション性能が向上したかを判断する。
論文 参考訳(メタデータ) (2022-10-14T12:50:59Z) - Automatic Tumor Segmentation via False Positive Reduction Network for
Whole-Body Multi-Modal PET/CT Images [12.885308856495353]
PET/CT画像評価では,腫瘍の自動切除が重要なステップである。
既存の方法は腫瘍領域を過剰に分離し、正常な高臓器、炎症、その他の感染症などの領域を含む傾向がある。
この制限を克服するために、偽陽性削減ネットワークを導入します。
論文 参考訳(メタデータ) (2022-09-16T04:01:14Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Synthetic PET via Domain Translation of 3D MRI [1.0052333944678682]
56ドルのF-FDG-PET/MRI検査データセットを用いて3D残像UNetをトレーニングし,全身T1強調MRIによる生理的PET取り込みを予測する。
予測されたPET画像は前方に投影され、ベンダーが提供するPET再構成アルゴリズムで使用できる合成PETタイム・オブ・フライ・シングラムを生成する。
論文 参考訳(メタデータ) (2022-06-11T21:32:40Z) - Controlling False Positive/Negative Rates for Deep-Learning-Based
Prostate Cancer Detection on Multiparametric MR images [58.85481248101611]
そこで本研究では,病変からスライスまでのマッピング機能に基づく,病変レベルのコスト感受性損失と付加的なスライスレベルの損失を組み込んだ新しいPCa検出ネットワークを提案する。
1) 病変レベルFNRを0.19から0.10に, 病変レベルFPRを1.03から0.66に減らした。
論文 参考訳(メタデータ) (2021-06-04T09:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。