論文の概要: GR-Diffusion: 3D Gaussian Representation Meets Diffusion in Whole-Body PET Reconstruction
- arxiv url: http://arxiv.org/abs/2602.11653v1
- Date: Thu, 12 Feb 2026 07:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.689041
- Title: GR-Diffusion: 3D Gaussian Representation Meets Diffusion in Whole-Body PET Reconstruction
- Title(参考訳): GR-Diffusion: 3D Gaussian Representation Meets Diffusion in Whole-Body PET Reconstruction (特集:PETとバイオサイバネティックス)
- Authors: Mengxiao Geng, Zijie Chen, Ran Hong, Bingxuan Li, Qiegen Liu,
- Abstract要約: 本稿では3次元PET再構成のための新しいGR拡散フレームワークを提案する。
GR-DiffusionはGRを用いて投影データから参照3DPET画像を生成する。
GR-Diffusionは3次元PET画像の画質向上において最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.292083119604046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positron emission tomography (PET) reconstruction is a critical challenge in molecular imaging, often hampered by noise amplification, structural blurring, and detail loss due to sparse sampling and the ill-posed nature of inverse problems. The three-dimensional discrete Gaussian representation (GR), which efficiently encodes 3D scenes using parameterized discrete Gaussian distributions, has shown promise in computer vision. In this work, we pro-pose a novel GR-Diffusion framework that synergistically integrates the geometric priors of GR with the generative power of diffusion models for 3D low-dose whole-body PET reconstruction. GR-Diffusion employs GR to generate a reference 3D PET image from projection data, establishing a physically grounded and structurally explicit benchmark that overcomes the low-pass limitations of conventional point-based or voxel-based methods. This reference image serves as a dual guide during the diffusion process, ensuring both global consistency and local accuracy. Specifically, we employ a hierarchical guidance mechanism based on the GR reference. Fine-grained guidance leverages differences to refine local details, while coarse-grained guidance uses multi-scale difference maps to correct deviations. This strategy allows the diffusion model to sequentially integrate the strong geometric prior from GR and recover sub-voxel information. Experimental results on the UDPET and Clinical datasets with varying dose levels show that GR-Diffusion outperforms state-of-the-art methods in enhancing 3D whole-body PET image quality and preserving physiological details.
- Abstract(参考訳): PET(Positron emission tomography)の再構成は分子イメージングにおいて重要な課題であり、しばしばノイズ増幅、構造的ぼかし、スパースサンプリングによる詳細損失と逆問題の性質が阻害される。
パラメータ化された離散ガウス分布を用いて3次元シーンを効率的に符号化する3次元離散ガウス表現(GR)は、コンピュータビジョンにおいて有望であることを示す。
本研究では,3次元低線量PET再構成のための拡散モデルの生成力とGRの幾何学的先行を相乗的に統合する新しいGR拡散フレームワークを提案する。
GR-DiffusionはGRを用いて投影データから参照3DPET画像を生成し、従来のポイントベースまたはボクセルベースの手法の低パス制限を克服する物理的基盤と構造的明示的なベンチマークを確立する。
この参照画像は拡散過程における二重ガイドとして機能し、大域的一貫性と局所的精度の両方を保証する。
具体的には、GR参照に基づく階層的ガイダンス機構を用いる。
きめ細かいガイダンスは、差分を利用して局所的な詳細を洗練し、粗いガイダンスは、偏差を補正するためにマルチスケールの差分マップを使用する。
この戦略により、拡散モデルはGRからの強い幾何学的事前を逐次統合し、サブボクセル情報を復元することができる。
UDPETおよび臨床データセットの線量レベルの異なる実験結果から,GR-Diffusionは3次元全身PET画像の画質向上や生理的詳細の保存において最先端の手法より優れていることが示された。
関連論文リスト
- RLGF: Reinforcement Learning with Geometric Feedback for Autonomous Driving Video Generation [75.61028930882144]
この重要な問題を特定し定量化し,合成データと実データを用いた場合の3次元物体検出における顕著な性能差を示す。
本稿では,RLGFを用いた強化学習(Reinforcement Learning with Geometric Feedback, RLGF)を紹介する。
RLGFは幾何誤差(例えばVPエラーを21%、深さエラーを57%)を大幅に削減し、3Dオブジェクト検出のmAPを12.7%改善し、実際のデータ性能のギャップを狭める。
論文 参考訳(メタデータ) (2025-09-20T02:23:36Z) - FCaS: Fine-grained Cardiac Image Synthesis based on 3D Template Conditional Diffusion Model [23.9686884119236]
本稿では,3次元テンプレート条件付き拡散モデル上に構築された細粒度心臓画像合成フレームワークを提案する。
FCaSはテンプレート誘導条件拡散モデル(TCDM)を用いた正確な心構造生成を実現する
本稿では,不正確な合成画像による混乱を軽減するために,信頼を意識した適応学習(CAL)戦略を提案する。
論文 参考訳(メタデータ) (2025-03-12T17:25:09Z) - GCA-3D: Towards Generalized and Consistent Domain Adaptation of 3D Generators [24.67369444661137]
GCA-3Dはデータ生成の複雑なパイプラインを使わずに汎用的で一貫した3Dドメイン適応法である。
我々は,非逆方向の3次元生成モデルに効率よく適応するために,多モード深度対応型スコア蒸留サンプリング損失を導入する。
実験により, GCA-3Dは, 効率, 一般化, 精度, アイデンティティの整合性の観点から, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-20T02:13:11Z) - DI-PCG: Diffusion-based Efficient Inverse Procedural Content Generation for High-quality 3D Asset Creation [39.08891847512135]
Inverse Procedural Content Generationは入力条件下で最適なパラメータを自動的に見つけることを目的としている。
一般画像からの逆PCGの新規かつ効率的な方法であるDI-PCGを提案する。
7.6Mのネットワークパラメータとトレーニングに30GPU時間しか必要とせず、パラメータを正確に回復する際の優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-12-19T18:58:46Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - 2.5D Multi-view Averaging Diffusion Model for 3D Medical Image Translation: Application to Low-count PET Reconstruction with CT-less Attenuation Correction [17.897681480967087]
ポジトロン・エミッション・トモグラフィ(PET)は重要な臨床画像診断ツールであるが、患者や医療機関に必然的に放射線障害をもたらす。
非減衰補正低線量PETを減衰補正標準線量PETに変換する3D法の開発が望ましい。
近年の拡散モデルは、従来のCNNベースの手法よりも優れた画像から画像への翻訳のための最先端のディープラーニング手法として登場した。
NACを用いた3次元画像から画像への変換のための新しい2.5次元マルチビュー平均拡散モデル(MADM)を開発した。
論文 参考訳(メタデータ) (2024-06-12T16:22:41Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。