論文の概要: ILV: Iterative Latent Volumes for Fast and Accurate Sparse-View CT Reconstruction
- arxiv url: http://arxiv.org/abs/2603.14915v1
- Date: Mon, 16 Mar 2026 07:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.127135
- Title: ILV: Iterative Latent Volumes for Fast and Accurate Sparse-View CT Reconstruction
- Title(参考訳): ILV : 高速かつ高精度なスパルスCT画像再構成のための反復潜時容積
- Authors: Seungryong Lee, Woojeong Baek, Joosang Lee, Eunbyung Park,
- Abstract要約: Iterative Latent Volumes (ILV) は、データ駆動の事前処理と古典的な反復的再構築の原則を統合するフィードフォワードフレームワークである。
ILVは、マルチビューX線特徴の条件付けによって繰り返し更新される明示的な3D潜伏ボリュームを構成する。
ILVは、既存のフィードフォワード法と最適化法を、復元品質と速度の両方で大幅に上回っている。
- 参考スコア(独自算出の注目度): 17.489741212008948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A long-term goal in CT imaging is to achieve fast and accurate 3D reconstruction from sparse-view projections, thereby reducing radiation exposure, lowering system cost, and enabling timely imaging in clinical workflows. Recent feed-forward approaches have shown strong potential toward this overarching goal, yet their results still suffer from artifacts and loss of fine details. In this work, we introduce Iterative Latent Volumes (ILV), a feed-forward framework that integrates data-driven priors with classical iterative reconstruction principles to overcome key limitations of prior feed-forward models in sparse-view CBCT reconstruction. At its core, ILV constructs an explicit 3D latent volume that is repeatedly updated by conditioning on multi-view X-ray features and the learned anatomical prior, enabling the recovery of fine structural details beyond the reach of prior feed-forward models. In addition, we develop and incorporate several key architectural components, including an X-ray feature volume, group cross-attention, efficient self-attention, and view-wise feature aggregation, that efficiently realize its core latent volume refinement concept. Extensive experiments on a large-scale dataset of approximately 14,000 CT volumes demonstrate that ILV significantly outperforms existing feed-forward and optimization-based methods in both reconstruction quality and speed. These results show that ILV enables fast and accurate sparse-view CBCT reconstruction suitable for clinical use. The project page is available at: https://sngryonglee.github.io/ILV/.
- Abstract(参考訳): CT画像の長期的な目標は、スパース・ビュー・プロジェクションからの高速で正確な3次元再構成を達成し、放射線被曝を低減し、システムコストを低減し、臨床ワークフローにおけるタイムリーなイメージングを可能にすることである。
最近のフィードフォワードアプローチは、この包括的な目標に対して強い可能性を示しているが、それでも成果はアーティファクトと詳細な詳細の喪失に悩まされている。
本研究では,従来のフィードフォワードモデルの主要な制約を克服するために,データ駆動型事前処理と古典的反復的再構成原理を統合するフィードフォワードフレームワークであるIterative Latent Volumes (ILV)を紹介する。
ILVは、マルチビューX線特徴と学習された解剖学的先行条件を条件付け、繰り返し更新される明示的な3D潜伏ボリュームを構築し、以前のフィードフォワードモデルの範囲を超えて微細な構造的詳細の回復を可能にする。
さらに、X線特徴量、グループ横断性、効率的な自己アテンション、ビューワイズ機能アグリゲーションなど、その中核的な潜在ボリューム改善概念を効率的に実現するいくつかの重要なアーキテクチャコンポーネントを開発し、組み入れた。
約14,000のCTボリュームの大規模データセットに対する大規模な実験により、ILVは、復元品質と速度の両方において、既存のフィードフォワード法と最適化ベースの手法を著しく上回っていることが示された。
以上の結果より,ILVは臨床応用に適した高速かつ正確なCBCT再構成を可能にすることが示唆された。
プロジェクトページは、https://sngryonglee.github.io/ILV/.com/で公開されている。
関連論文リスト
- One-Shot Refiner: Boosting Feed-forward Novel View Synthesis via One-Step Diffusion [57.824020826432815]
スパース画像から高忠実性ノベルビュー合成(NVS)を実現するための新しいフレームワークを提案する。
ViTバックボーンによって制限されることなく高解像度画像を処理できるデュアルドメイン詳細知覚モジュールを設計する。
我々は,修復過程において高周波の詳細を保存できる特徴誘導拡散ネットワークを開発した。
論文 参考訳(メタデータ) (2026-01-20T17:11:55Z) - TPG-INR: Target Prior-Guided Implicit 3D CT Reconstruction for Enhanced Sparse-view Imaging [1.751461624180595]
本研究では,オブジェクトの投影データから得られる「ターゲット事前」を利用して,暗黙的な学習を促進する新しい3次元再構成フレームワークを提案する。
提案手法は, ボクセルサンプリングに先立って, 位置構造的エンコーディングを統合し, ボクセルの暗黙的再構成を容易にする。
論文 参考訳(メタデータ) (2025-11-24T06:21:52Z) - Iterative Diffusion-Refined Neural Attenuation Fields for Multi-Source Stationary CT Reconstruction: NAF Meets Diffusion Model [20.480681036392173]
高速な画像再構成を実現するために, マルチソース・静止CT (CT) が注目されている。
超スパースビュー条件下でのマルチソース静止CTに適した反復的フレームワークであるDiff-NAF(Diffusion-Refined Neural Attenuation Fields)を提案する。
論文 参考訳(メタデータ) (2025-11-18T10:14:28Z) - Flow-Matching Guided Deep Unfolding for Hyperspectral Image Reconstruction [53.26903617819014]
Flow-Matching-Guided Unfolding Network (FMU)は、最初にフローマッチングをHSI再構成に統合する。
学習力学をさらに強化するために,平均速度損失を導入する。
シミュレーションと実データの両方の実験により、FMUは復元品質において既存のアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2025-10-02T11:32:00Z) - NerT-CA: Efficient Dynamic Reconstruction from Sparse-view X-ray Coronary Angiography [1.1999555634662633]
X線冠動脈造影(CA)による冠動脈の3次元3次元および動的3次元+時間(4D)再構築は,臨床的治療改善の可能性を秘めている。
対処すべき課題は、特に、血管構造の疎度、背景と血管の区別の低さ、スパース・ビュー、スキャン内動作である。
スパースビューCAを用いた高速4次元再構成のためのニューラルアンドリアル表現のハイブリッドアプローチであるNerT-CAを提案する。
論文 参考訳(メタデータ) (2025-07-25T14:38:33Z) - SUFFICIENT: A scan-specific unsupervised deep learning framework for high-resolution 3D isotropic fetal brain MRI reconstruction [7.268308489093152]
等方性HR容積再構成のための教師なし反復SVR-SRRフレームワークを提案する。
高分解能(HR)ボリュームを生成するために、ディープイメージ事前フレームワーク内に埋め込まれたデコードネットワークを包括的画像劣化モデルに組み込む。
大規模動乱シミュレーションデータと臨床データを用いて行った実験は,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2025-05-23T04:53:59Z) - X-GRM: Large Gaussian Reconstruction Model for Sparse-view X-rays to Computed Tomography [89.84588038174721]
Computed Tomographyは臨床において必須のツールであり、内部解剖学的構造を非侵襲的に可視化する。
既存のCT再構成作業は、小さなキャパシティモデルアーキテクチャと非フレキシブルボリューム表現に限られている。
スパースビュー2次元X線プロジェクションから3次元CTボリュームを再構成する大規模なフィードフォワードモデルであるX-GRMを提案する。
論文 参考訳(メタデータ) (2025-05-21T08:14:10Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。