論文の概要: PoCGM: Poisson-Conditioned Generative Model for Sparse-View CT Reconstruction
- arxiv url: http://arxiv.org/abs/2511.13967v1
- Date: Mon, 17 Nov 2025 22:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.828201
- Title: PoCGM: Poisson-Conditioned Generative Model for Sparse-View CT Reconstruction
- Title(参考訳): PoCGM:スパークビューCT再構成のためのPoisson-Conditioned Generative Model
- Authors: Changsheng Fang, Yongtong Liu, Bahareh Morovati, Shuo Han, Li Zhou, Hengyong Yu,
- Abstract要約: スパースビューCT再構成の課題に対処するPoCGM(Poisson-Conditioned Generative Model)を提案する。
PoCGMは、トレーニングおよびサンプリングフェーズのガイダンスとしてスパースビューデータを組み込むことで、PFGM++を条件付き生成フレームワークに再構成する。
- 参考スコア(独自算出の注目度): 5.120672234846302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In computed tomography (CT), reducing the number of projection views is an effective strategy to lower radiation exposure and/or improve temporal resolution. However, this often results in severe aliasing artifacts and loss of structural details in reconstructed images, posing significant challenges for clinical applications. Inspired by the success of the Poisson Flow Generative Model (PFGM++) in natural image generation, we propose a PoCGM (Poisson-Conditioned Generative Model) to address the challenges of sparse-view CT reconstruction. Since PFGM++ was originally designed for unconditional generation, it lacks direct applicability to medical imaging tasks that require integrating conditional inputs. To overcome this limitation, the PoCGM reformulates PFGM++ into a conditional generative framework by incorporating sparse-view data as guidance during both training and sampling phases. By modeling the posterior distribution of full-view reconstructions conditioned on sparse observations, PoCGM effectively suppresses artifacts while preserving fine structural details. Qualitative and quantitative evaluations demonstrate that PoCGM outperforms the baselines, achieving improved artifact suppression, enhanced detail preservation, and reliable performance in dose-sensitive and time-critical imaging scenarios.
- Abstract(参考訳): CT(Computerd tomography)では、投射回数を減らすことが、放射線被曝の低減や時間分解能の向上に有効な戦略である。
しかし、これはしばしば、再建された画像における深刻なアーティファクトのエイリアス化と構造的詳細の喪失を招き、臨床応用に重大な課題を生じさせる。
自然画像生成におけるPoisson Flow Generative Model(PFGM++)の成功に触発されて,スパースビューCT再構成の課題に対処するPoCGM(Poisson-Conditioned Generative Model)を提案する。
PFGM++はもともと無条件生成用に設計されたため、条件入力の統合を必要とする医療画像のタスクに直接適用できない。
この制限を克服するため、PoCGMはPFGM++をトレーニングとサンプリングフェーズの両方でスパースビューデータをガイダンスとして組み込むことで条件付き生成フレームワークに再構成する。
スパース観測に基づくフルビュー再構成の後方分布をモデル化することにより、PoCGMは微細な構造を保ちながら人工物を効果的に抑制する。
質的および定量的評価は、PoCGMがベースラインより優れ、アーティファクトの抑制の改善、詳細保存の強化、線量感受性および時間クリティカルイメージングのシナリオにおける信頼性の高いパフォーマンスを実現していることを示している。
関連論文リスト
- ResPF: Residual Poisson Flow for Efficient and Physically Consistent Sparse-View CT Reconstruction [7.644299873269135]
スパース・ビュー・コンピュート・トモグラフィー(CT)は、放射線線量を減らすための実用的な方法であるが、結果として生じる逆問題により、正確な画像再構成に重大な課題が生じる。
生成モデリングの最近の進歩、特にポアソンフロー生成モデル(PFGM)は、高忠実度画像合成を可能にする。
本稿では, 残余ポアソンフロー(ResPF)生成モデルを提案する。
論文 参考訳(メタデータ) (2025-06-06T01:43:35Z) - Tomographic Foundation Model -- FORCE: Flow-Oriented Reconstruction Conditioning Engine [9.228750443979733]
深層学習はCT画像再構成を著しく進歩させた。
ディープラーニングの手法は、ほぼペアのデータでうまく機能するが、それらは本質的に幻覚のリスクを負う。
我々は新しいCTフレームワークFORCE(Flow-Oriented Restruction Conditioning Engine)を提案する。
論文 参考訳(メタデータ) (2025-06-02T18:25:12Z) - CT-SDM: A Sampling Diffusion Model for Sparse-View CT Reconstruction across All Sampling Rates [16.985836345715963]
Sparse view X-ray Computed tomography は放射線線量減少を緩和する現代的手法として登場した。
深層学習を用いた最近の研究は, Sparse-View Computed Tomography (SVCT) のアーティファクトの除去に有望な進展をもたらした。
本研究では,任意のサンプリングレートで高性能SVCT再構成を実現するための適応的再構成手法を提案する。
論文 参考訳(メタデータ) (2024-09-03T03:06:15Z) - Timestep-Aware Diffusion Model for Extreme Image Rescaling [47.89362819768323]
本稿では,時間認識拡散モデル(TADM)と呼ばれる,画像再スケーリングのための新しいフレームワークを提案する。
TADMは、事前訓練されたオートエンコーダの潜在空間で再スケーリング操作を行う。
これは、事前訓練されたテキスト・ツー・イメージ拡散モデルによって学習された強力な自然画像の先行を効果的に活用する。
論文 参考訳(メタデータ) (2024-08-17T09:51:42Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Partitioned Hankel-based Diffusion Models for Few-shot Low-dose CT Reconstruction [10.158713017984345]
分割ハンケル拡散(PHD)モデルを用いた低用量CT再構成法を提案する。
反復再構成段階では、反復微分方程式解法とデータ一貫性制約を併用して、取得した投影データを更新する。
その結果,PHDモデルを画像品質を維持しつつ,アーチファクトやノイズを低減し,有効かつ実用的なモデルとして検証した。
論文 参考訳(メタデータ) (2024-05-27T13:44:53Z) - DPER: Diffusion Prior Driven Neural Representation for Limited Angle and Sparse View CT Reconstruction [45.00528216648563]
Diffusion Prior Driven Neural Representation (DPER) は、異常に不適切なCT再構成逆問題に対処するために設計された、教師なしのフレームワークである。
DPERは、半二次分割法(HQS)アルゴリズムを採用し、逆問題からデータ忠実度とサブプロブレム前の分布に分解する。
LACTにおけるDPERの性能評価と2つの公開データセットを用いた超SVCT再構成に関する総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-27T12:55:13Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Generative Diffusion Prior for Unified Image Restoration and Enhancement [62.76390152617949]
既存の画像復元法は、主に自然画像の後方分布を利用する。
教師なしサンプリング方式で後部分布を効果的にモデル化するための生成拡散優先(GDP)を提案する。
GDPは、線形逆問題、非線形問題、ブラインド問題を解くために、プレトレインデノナイジング拡散生成モデル(DDPM)を利用する。
論文 参考訳(メタデータ) (2023-04-03T16:52:43Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。