論文の概要: TPG-INR: Target Prior-Guided Implicit 3D CT Reconstruction for Enhanced Sparse-view Imaging
- arxiv url: http://arxiv.org/abs/2511.18806v1
- Date: Mon, 24 Nov 2025 06:21:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.049516
- Title: TPG-INR: Target Prior-Guided Implicit 3D CT Reconstruction for Enhanced Sparse-view Imaging
- Title(参考訳): TPG-INR : Sparse-view Imaging のための3次元CT画像再構成
- Authors: Qinglei Cao, Ziyao Tang, Xiaoqin Tang,
- Abstract要約: 本研究では,オブジェクトの投影データから得られる「ターゲット事前」を利用して,暗黙的な学習を促進する新しい3次元再構成フレームワークを提案する。
提案手法は, ボクセルサンプリングに先立って, 位置構造的エンコーディングを統合し, ボクセルの暗黙的再構成を容易にする。
- 参考スコア(独自算出の注目度): 1.751461624180595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: X-ray imaging, based on penetration, enables detailed visualization of internal structures. Building on this capability, existing implicit 3D reconstruction methods have adapted the NeRF model and its variants for internal CT reconstruction. However, these approaches often neglect the significance of objects' anatomical priors for implicit learning, limiting both reconstruction precision and learning efficiency, particularly in ultra-sparse view scenarios. To address these challenges, we propose a novel 3D CT reconstruction framework that employs a 'target prior' derived from the object's projection data to enhance implicit learning. Our approach integrates positional and structural encoding to facilitate voxel-wise implicit reconstruction, utilizing the target prior to guide voxel sampling and enrich structural encoding. This dual strategy significantly boosts both learning efficiency and reconstruction quality. Additionally, we introduce a CUDA-based algorithm for rapid estimation of high-quality 3D target priors from sparse-view projections. Experiments utilizing projection data from a complex abdominal dataset demonstrate that the proposed model substantially enhances learning efficiency, outperforming the current leading model, NAF, by a factor of ten. In terms of reconstruction quality, it also exceeds the most accurate model, NeRP, achieving PSNR improvements of 3.57 dB, 5.42 dB, and 5.70 dB with 10, 20, and 30 projections, respectively. The code is available at https://github.com/qlcao171/TPG-INR.
- Abstract(参考訳): 透過性に基づくX線イメージングにより、内部構造を詳細に可視化することができる。
この能力に基づいて、既存の暗黙の3次元再構成法は、NeRFモデルとその変種を内部CT再構成に応用した。
しかしながら、これらのアプローチは暗黙の学習において、オブジェクトの解剖学的先行性の重要性を無視し、特に超スパースな視点シナリオにおいて、再構築精度と学習効率の両方を制限している。
これらの課題に対処するために,オブジェクトの投影データから得られる「ターゲット事前」を利用して暗黙的な学習を促進する新しい3次元CT再構成フレームワークを提案する。
本手法は, 位置的および構造的エンコーディングを統合して, ボクセルの暗黙的再構成を促進させ, ボクセルサンプリングの誘導に先立ち, 構造的エンコーディングの強化を図る。
この二重戦略は学習効率と再構築品質の両方を大幅に向上させる。
さらに,スパース・ビュー・プロジェクションから高品質な3Dターゲットを高速に推定するためのCUDAに基づくアルゴリズムを提案する。
複雑な腹部データセットからの投影データを用いた実験により,提案モデルが学習効率を大幅に向上し,現在の先行モデルであるNAFを10倍に向上させることを示した。
復元品質の面では最も正確なモデルであるNeRPを超え、PSNRの改善は3.57dB、5.42dB、5.70dB、それぞれ10, 20, 30投射である。
コードはhttps://github.com/qlcao171/TPG-INRで公開されている。
関連論文リスト
- Plug-and-Play with 2.5D Artifact Reduction Prior for Fast and Accurate Industrial Computed Tomography Reconstruction [4.024850952459758]
コーンビームX線CT (XCT) は, 内部構造を3次元再構成する上で必要不可欠なイメージング技術である。
プラグイン・アンド・プレイトモグラフィー再構成フレームワークにアーティファクト・リダクションを組み込んだ最近の成果は有望である。
また, この2.5D前のモデルでは, 復元の質が向上するだけでなく, 一般的に発生するXCTアーティファクトを直接抑制できることを示す。
論文 参考訳(メタデータ) (2025-06-17T16:52:57Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization [69.50126552763157]
表面再構成はコンピュータビジョンとグラフィックスの基本であり、3Dモデリング、混合現実、ロボット工学などの応用を可能にする。
レンダリングに基づく既存のアプローチは有望な結果を得るが、シーンごとに最適化されるため、テクスチャレスな領域をモデル化するのに苦労する可能性がある。
大規模屋内シーンの2次元ガウススプラッティング最適化のための高密度初期化を生成するために,データ駆動の先行処理を学習するQuickSplatを紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:43:26Z) - DeepSparse: A Foundation Model for Sparse-View CBCT Reconstruction [9.579390210009521]
スパースビュー再構成は、画質を維持しながらX線投影を少なくすることで放射線を低減させる。
既存の手法では、高い計算要求や異なるデータセットに対する一般化性の欠如といった課題に直面している。
マルチビュー2次元特徴とマルチスケール3次元特徴を統合した新しいネットワークであるDiCEを特徴とする,スパースビューCBCT再構成のための最初の基盤モデルであるDeepSparseを提案する。
論文 参考訳(メタデータ) (2025-05-05T13:14:49Z) - USP-Gaussian: Unifying Spike-based Image Reconstruction, Pose Correction and Gaussian Splatting [45.246178004823534]
スパイクカメラは、0-1ビットストリームを40kHzで撮影する革新的なニューロモルフィックカメラとして、ますます3D再構成タスクに採用されている。
以前のスパイクベースの3D再構成アプローチでは、ケースケースのパイプラインを使うことが多い。
本稿では,スパイクに基づく画像再構成,ポーズ補正,ガウス的スプラッティングをエンドツーエンドのフレームワークに統一する,相乗的最適化フレームワーク textbfUSP-Gaussian を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:15:16Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Translational Symmetry-Aware Facade Parsing for 3D Building
Reconstruction [11.263458202880038]
本稿では,深部ニューラルネットワーク改善のための新しい翻訳対称性に基づくアプローチを提案する。
本研究では,単一段ネットワークにおけるアンカーフリー検出を融合させる新しい手法を提案する。
我々はBlenderのような市販のレンダリングエンジンを使用して、手続きモデルを用いて現実的な高品質な3Dモデルを再構築する。
論文 参考訳(メタデータ) (2021-06-02T03:10:51Z) - GDRNPP: A Geometry-guided and Fully Learning-based Object Pose Estimator [51.89441403642665]
剛体物体の6次元ポーズ推定はコンピュータビジョンにおける長年の課題である。
近年、ディープラーニングの出現は、信頼できる6Dポーズを予測するための畳み込みニューラルネットワーク(CNN)の可能性を明らかにしている。
本稿では,完全学習型オブジェクトポーズ推定器を提案する。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。