論文の概要: Supervise-assisted Multi-modality Fusion Diffusion Model for PET Restoration
- arxiv url: http://arxiv.org/abs/2602.11545v1
- Date: Thu, 12 Feb 2026 04:06:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.631715
- Title: Supervise-assisted Multi-modality Fusion Diffusion Model for PET Restoration
- Title(参考訳): PET再生のための超助成多モード核融合モデル
- Authors: Yingkai Zhang, Shuang Chen, Ye Tian, Yunyi Gao, Jianyong Jiang, Ying Fu,
- Abstract要約: ポジトロン・エミッション・トモグラフィ(PET)は、強力な機能的イメージングを提供するが、放射線被曝を伴う。放射線線量やスキャン時間を減らすことで、画像の品質を低下させることができる。
低用量PET (LPET) から標準用量PET (SPET) を復元するために、より明確な解剖学的情報を持つMRI画像を使用することは、有望なアプローチであるが、マルチモーダル融合の構造とテクスチャに矛盾のある課題に直面している。
高品質PET修復における課題に対処するために, スーパーバイス支援多モード融合拡散モデル (MFdiff) を提案する。
- 参考スコア(独自算出の注目度): 13.223240177272087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Positron emission tomography (PET) offers powerful functional imaging but involves radiation exposure. Efforts to reduce this exposure by lowering the radiotracer dose or scan time can degrade image quality. While using magnetic resonance (MR) images with clearer anatomical information to restore standard-dose PET (SPET) from low-dose PET (LPET) is a promising approach, it faces challenges with the inconsistencies in the structure and texture of multi-modality fusion, as well as the mismatch in out-of-distribution (OOD) data. In this paper, we propose a supervise-assisted multi-modality fusion diffusion model (MFdiff) for addressing these challenges for high-quality PET restoration. Firstly, to fully utilize auxiliary MR images without introducing extraneous details in the restored image, a multi-modality feature fusion module is designed to learn an optimized fusion feature. Secondly, using the fusion feature as an additional condition, high-quality SPET images are iteratively generated based on the diffusion model. Furthermore, we introduce a two-stage supervise-assisted learning strategy that harnesses both generalized priors from simulated in-distribution datasets and specific priors tailored to in-vivo OOD data. Experiments demonstrate that the proposed MFdiff effectively restores high-quality SPET images from multi-modality inputs and outperforms state-of-the-art methods both qualitatively and quantitatively.
- Abstract(参考訳): ポジトロン放射トモグラフィ(PET)は強力な機能的イメージングを提供するが、放射線照射を伴う。
放射線線量やスキャンタイムを下げることで、この露出を減らす努力は、画質を低下させる可能性がある。
低用量PET(LPET)から標準用量PET(SPET)を復元するために、より明確な解剖学的情報を持つMR画像を使用することは、有望なアプローチであるが、マルチモーダル融合の構造とテクスチャにおける不整合や、アウト・オブ・ディストリビューション(OOD)データのミスマッチに直面する。
本稿では, 高品質PET修復における課題を解決するために, MFdiff (Supervise-assisted multi-modality fusionfusion model) を提案する。
まず、復元画像に余分な詳細を導入することなく補助MR画像を完全に活用するために、最適化された融合特徴を学習するために多モード特徴融合モジュールを設計する。
第二に、融合機能を付加条件として使用することにより、拡散モデルに基づいて高品質なSPET画像が反復的に生成される。
さらに、シミュレーションした分布内データセットと、生前のOODデータに適した特定の先行データから、一般化された先行情報を活用する2段階のスーパーバイス支援学習戦略を導入する。
実験により,提案したMFdiffは,多モード入力から高画質のSPET画像を効果的に復元し,定性的かつ定量的に,最先端の手法より優れていることが示された。
関連論文リスト
- Direct Dual-Energy CT Material Decomposition using Model-based Denoising Diffusion Model [105.95160543743984]
本稿では,Dual-Energy Decomposition Model-based Diffusion (DEcomp-MoD) と呼ばれる深層学習手法を提案する。
Decomp-MoDは、教師なしスコアベースモデルと教師なしディープラーニングネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2025-07-24T01:00:06Z) - Personalized MR-Informed Diffusion Models for 3D PET Image Reconstruction [40.722159771726375]
本稿では,PET-MR スキャンのデータセットから対象特異的なPET画像を生成するための簡易な手法を提案する。
私たちが合成した画像は、被験者のMRスキャンからの情報を保持し、高分解能と解剖学的特徴の保持につながる。
18ドルF]FDGデータセットのシミュレーションと実データを用いて,対象特異的な「擬似PET」画像を用いたパーソナライズされた拡散モデルの事前学習により,低カウントデータによる再構成精度が向上することを示す。
論文 参考訳(メタデータ) (2025-06-04T10:24:14Z) - Diffusion Transformer Model With Compact Prior for Low-dose PET Reconstruction [7.320877150436869]
低線量PET画像の再構成品質を高めるために,JCP(Joint compact prior)により導かれる拡散変圧器モデルを提案する。
DTMは拡散モデルの強力な分布マッピング能力と変圧器の容量を組み合わせて長距離依存を捉える。
本手法は放射線曝露リスクを軽減するだけでなく,早期診断や患者管理のためのPETイメージングツールも提供する。
論文 参考訳(メタデータ) (2024-07-01T03:54:43Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。