論文の概要: st-DTPM: Spatial-Temporal Guided Diffusion Transformer Probabilistic Model for Delayed Scan PET Image Prediction
- arxiv url: http://arxiv.org/abs/2410.22732v1
- Date: Wed, 30 Oct 2024 06:37:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:23:59.286752
- Title: st-DTPM: Spatial-Temporal Guided Diffusion Transformer Probabilistic Model for Delayed Scan PET Image Prediction
- Title(参考訳): st-DTPM:遅延走査PET画像予測のための時空間誘導拡散変圧器確率モデル
- Authors: Ran Hong, Yuxia Huang, Lei Liu, Zhonghui Wu, Bingxuan Li, Xuemei Wang, Qiegen Liu,
- Abstract要約: いくつかの研究によると、二重時間PET画像は悪性腫瘍と良性腫瘍を区別する可能性を秘めている。
両時間PET画像予測問題を解くために, 時空間誘導拡散変換器確率モデル(st-DTPM)を提案する。
- 参考スコア(独自算出の注目度): 6.812140684449128
- License:
- Abstract: PET imaging is widely employed for observing biological metabolic activities within the human body. However, numerous benign conditions can cause increased uptake of radiopharmaceuticals, confounding differentiation from malignant tumors. Several studies have indicated that dual-time PET imaging holds promise in distinguishing between malignant and benign tumor processes. Nevertheless, the hour-long distribution period of radiopharmaceuticals post-injection complicates the determination of optimal timing for the second scan, presenting challenges in both practical applications and research. Notably, we have identified that delay time PET imaging can be framed as an image-to-image conversion problem. Motivated by this insight, we propose a novel spatial-temporal guided diffusion transformer probabilistic model (st-DTPM) to solve dual-time PET imaging prediction problem. Specifically, this architecture leverages the U-net framework that integrates patch-wise features of CNN and pixel-wise relevance of Transformer to obtain local and global information. And then employs a conditional DDPM model for image synthesis. Furthermore, on spatial condition, we concatenate early scan PET images and noisy PET images on every denoising step to guide the spatial distribution of denoising sampling. On temporal condition, we convert diffusion time steps and delay time to a universal time vector, then embed it to each layer of model architecture to further improve the accuracy of predictions. Experimental results demonstrated the superiority of our method over alternative approaches in preserving image quality and structural information, thereby affirming its efficacy in predictive task.
- Abstract(参考訳): PETイメージングは、体内の生物学的代謝活動の観察に広く用いられている。
しかし、多くの良性疾患は、悪性腫瘍との鑑別を理由として、放射性医薬品の摂取を増加させる可能性がある。
いくつかの研究によると、二重時間PET画像は悪性腫瘍と良性腫瘍を区別する可能性を秘めている。
それにもかかわらず、放射性医薬品の投射後1時間の分布期間は、第2スキャンの最適タイミングの決定を複雑にし、実用化と研究の両面での課題を提示している。
特に,画像から画像への変換問題として,遅延時間PET画像のフレーム化が可能であることが確認された。
そこで本研究では,両時間PET画像予測問題の解法として,時空間誘導拡散変圧器確率モデル(st-DTPM)を提案する。
具体的には、CNNのパッチワイド機能とTransformerのピクセルワイド関連を統合してローカルおよびグローバル情報を得るU-netフレームワークを利用する。
そして、画像合成に条件付きDDPMモデルを用いる。
さらに,空間的条件下では,デノナイジングステップ毎に早期スキャンPET画像とノイズPET画像とを連結し,デノナイジングサンプリングの空間分布を導出する。
時間的条件では、拡散時間ステップと遅延時間を普遍時間ベクトルに変換し、それをモデルアーキテクチャの各層に埋め込み、予測の精度をさらに向上させる。
実験の結果,画像品質と構造情報の保存において,提案手法が代替手法よりも優れていることが示され,予測作業における有効性が確認された。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Paired Diffusion: Generation of related, synthetic PET-CT-Segmentation scans using Linked Denoising Diffusion Probabilistic Models [0.0]
本研究では,複数のPET-CT-腫瘍マスクペアをペアネットワークと条件エンコーダを用いて生成できる新しいアーキテクチャを提案する。
我々のアプローチには、DDPMサンプリング一貫性を改善するための革新的で時間的なステップ制御機構とノイズ探索戦略が含まれる。
論文 参考訳(メタデータ) (2024-03-26T14:21:49Z) - Multi-scale Spatio-temporal Transformer-based Imbalanced Longitudinal
Learning for Glaucoma Forecasting from Irregular Time Series Images [45.894671834869975]
緑内障は、進行性視神経線維損傷と不可逆性失明を引き起こす主要な眼疾患の1つである。
逐次画像入力に適した変換器アーキテクチャに基づくマルチスケール時空間変換器ネットワーク(MST-former)を提案する。
本手法は, 軽度認知障害とアルツハイマー病の予測に90.3%の精度で, アルツハイマー病神経画像イニシアチブ(ADNI)MRIデータセットに優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-02-21T02:16:59Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Spatio-Temporal Dual-Stream Neural Network for Sequential Whole-Body PET
Segmentation [10.344707825773252]
連続体PETスキャンをセグメント化する「デュアルストリーム」ニューラルネットワーク(ST-DSNN)を提案する。
我々のST-DSNNは、時間とともに行われたPET画像から画像の特徴を学習し、蓄積する。
その結果,本手法は最新のPET画像分割法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-09T10:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。