論文の概要: Post-Radiotherapy PET Image Outcome Prediction by Deep Learning under
Biological Model Guidance: A Feasibility Study of Oropharyngeal Cancer
Application
- arxiv url: http://arxiv.org/abs/2105.10650v1
- Date: Sat, 22 May 2021 06:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 09:27:23.593150
- Title: Post-Radiotherapy PET Image Outcome Prediction by Deep Learning under
Biological Model Guidance: A Feasibility Study of Oropharyngeal Cancer
Application
- Title(参考訳): 放射線治療後PET画像の生体モデル誘導による深層学習による予後予測 : 口腔咽頭癌応用の可能性
- Authors: Hangjie Ji, Kyle Lafata, Yvonne Mowery, David Brizel, Andrea L.
Bertozzi, Fang-Fang Yin, Chunhao Wang
- Abstract要約: 本稿では,放射線照射後のFDG-PET画像結果予測のための生物学的誘導型深層学習法を開発した。
古典的な反応拡散機構に基づいて、偏微分方程式を用いて新しい生物モデルを提案した。
7層エンコーダをベースとした畳み込みニューラルネットワーク(CNN)が設計され,提案する生物モデルを学ぶために訓練された。
- 参考スコア(独自算出の注目度): 5.787939851305456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper develops a method of biologically guided deep learning for
post-radiation FDG-PET image outcome prediction based on pre-radiation images
and radiotherapy dose information. Based on the classic reaction-diffusion
mechanism, a novel biological model was proposed using a partial differential
equation that incorporates spatial radiation dose distribution as a
patient-specific treatment information variable. A 7-layer
encoder-decoder-based convolutional neural network (CNN) was designed and
trained to learn the proposed biological model. As such, the model could
generate post-radiation FDG-PET image outcome predictions with possible
time-series transition from pre-radiotherapy image states to post-radiotherapy
states. The proposed method was developed using 64 oropharyngeal patients with
paired FDG-PET studies before and after 20Gy delivery (2Gy/daily fraction) by
IMRT. In a two-branch deep learning execution, the proposed CNN learns specific
terms in the biological model from paired FDG-PET images and spatial dose
distribution as in one branch, and the biological model generates post-20Gy
FDG-PET image prediction in the other branch. The proposed method successfully
generated post-20Gy FDG-PET image outcome prediction with breakdown
illustrations of biological model components. Time-series FDG-PET image
predictions were generated to demonstrate the feasibility of disease response
rendering. The developed biologically guided deep learning method achieved
post-20Gy FDG-PET image outcome predictions in good agreement with ground-truth
results. With break-down biological modeling components, the outcome image
predictions could be used in adaptive radiotherapy decision-making to optimize
personalized plans for the best outcome in the future.
- Abstract(参考訳): 本稿では,放射線照射後FDG-PET画像結果予測のための生物学的誘導深層学習法を開発した。
従来の反応拡散機構に基づいて,空間放射線線量分布を患者固有の治療情報変数とする偏微分方程式を用いて,新しい生物学的モデルを提案した。
7層エンコーダをベースとした畳み込みニューラルネットワーク(CNN)が設計され,提案する生物モデルを学ぶために訓練された。
その結果, 放射線照射後のFDG-PET画像結果の予測は, 放射線照射前の画像状態から放射線照射後の画像状態へ移行する可能性が示唆された。
IMRTによる20Gy導入前後(日量2Gy/日分)にFDG-PETを併用した64例の口腔咽頭患者を用いて本法を開発した。
2ブランチのディープラーニング実行において、提案したCNNは、一方のブランチのように、ペア化されたFDG-PET画像と空間線量分布から生物学的モデルの特定の用語を学習し、他方のブランチで20Gy後のFDG-PET画像予測を生成する。
提案手法は,生物モデル成分の分解図を用いた20Gy後のFDG-PET画像結果の予測に成功した。
fdg-pet画像の時系列予測が作成され,疾患応答の再現性が実証された。
本手法は,20Gy後のFDG-PET画像結果の予測を基調とよく一致させる。
生物学的モデリングコンポーネントのブレークダウンでは、適応的放射線治療決定に結果イメージ予測を用いて、パーソナライズされたプランを将来最高の結果に最適化することができる。
関連論文リスト
- Synthetic CT image generation from CBCT: A Systematic Review [44.01505745127782]
深層学習法を用いたコーンビームCT(CBCT)データから合成CT(sCT)画像を生成することは,放射線腫瘍学における重要な進歩である。
sCT 生成における深層学習アプローチの頻度を明らかにするため,35 件の関連研究を同定,解析した。
論文 参考訳(メタデータ) (2025-01-22T13:54:07Z) - End-to-end Triple-domain PET Enhancement: A Hybrid Denoising-and-reconstruction Framework for Reconstructing Standard-dose PET Images from Low-dose PET Sinograms [43.13562515963306]
低線量PETシングラムから標準線量PET画像の再構成を行うために,TripleTフレームワークを提案する。
提案したTriPLETは,最先端の手法と比較して,SPET画像と実データとの類似性と信号対雑音比が最も高い再構成を行うことができる。
論文 参考訳(メタデータ) (2024-12-04T14:47:27Z) - st-DTPM: Spatial-Temporal Guided Diffusion Transformer Probabilistic Model for Delayed Scan PET Image Prediction [6.812140684449128]
いくつかの研究によると、二重時間PET画像は悪性腫瘍と良性腫瘍を区別する可能性を秘めている。
両時間PET画像予測問題を解くために, 時空間誘導拡散変換器確率モデル(st-DTPM)を提案する。
論文 参考訳(メタデータ) (2024-10-30T06:37:55Z) - Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - PAD-Phys: Exploiting Physiology for Presentation Attack Detection in
Face Biometrics [48.683457383784145]
r: (i) 生理領域, (ii) ディープフェイクス領域, (iii) プレゼンテーション攻撃領域に基づく提示攻撃検出のための3つのアプローチ
その結果、プレゼンテーションアタックドメインを生理的およびディープフェイクスドメインと比較すると、平均分類誤り率(ACER)が21.70%減少していることがわかった。
実験では、r-ベースモデルにおける伝達学習の効率を強調し、この生理的特徴のコピーを許さない機器での提示攻撃検出をうまく行う。
論文 参考訳(メタデータ) (2023-10-03T15:24:15Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Validated respiratory drug deposition predictions from 2D and 3D medical
images with statistical shape models and convolutional neural networks [47.187609203210705]
患者固有の沈着モデリングのための自動計算フレームワークを開発し,検証することを目的としている。
2次元胸部X線と3次元CT画像から3次元患者の呼吸動態を生成できる画像処理手法が提案されている。
論文 参考訳(メタデータ) (2023-03-02T07:47:07Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - A resource-efficient deep learning framework for low-dose brain PET
image reconstruction and analysis [13.713286047709982]
本稿では,L-PET再構成と解析のための資源効率の高いディープラーニングフレームワーク,TransGAN-SDAMを提案する。
トランスGANは高品質なF-PET画像を生成し、SDAMは生成されたF-PETスライス列の空間情報を統合して全脳F-PET画像を生成する。
論文 参考訳(メタデータ) (2022-02-14T08:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。