論文の概要: DVG-Diffusion: Dual-View Guided Diffusion Model for CT Reconstruction from X-Rays
- arxiv url: http://arxiv.org/abs/2503.17804v1
- Date: Sat, 22 Mar 2025 16:03:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:18.291417
- Title: DVG-Diffusion: Dual-View Guided Diffusion Model for CT Reconstruction from X-Rays
- Title(参考訳): DVG拡散:X線からのCT再構成のためのデュアルビュー誘導拡散モデル
- Authors: Xing Xie, Jiawei Liu, Huijie Fan, Zhi Han, Yandong Tang, Liangqiong Qu,
- Abstract要約: 新しいビュー合成を取り入れた複雑な2次元X線画像から3次元CTマッピングを容易にし、ビュー誘導機能アライメントによる学習難度を低減する。
具体的には,DVG拡散モデル (DVG-Diffusion) を提案する。
- 参考スコア(独自算出の注目度): 32.55527512602604
- License:
- Abstract: Directly reconstructing 3D CT volume from few-view 2D X-rays using an end-to-end deep learning network is a challenging task, as X-ray images are merely projection views of the 3D CT volume. In this work, we facilitate complex 2D X-ray image to 3D CT mapping by incorporating new view synthesis, and reduce the learning difficulty through view-guided feature alignment. Specifically, we propose a dual-view guided diffusion model (DVG-Diffusion), which couples a real input X-ray view and a synthesized new X-ray view to jointly guide CT reconstruction. First, a novel view parameter-guided encoder captures features from X-rays that are spatially aligned with CT. Next, we concatenate the extracted dual-view features as conditions for the latent diffusion model to learn and refine the CT latent representation. Finally, the CT latent representation is decoded into a CT volume in pixel space. By incorporating view parameter guided encoding and dual-view guided CT reconstruction, our DVG-Diffusion can achieve an effective balance between high fidelity and perceptual quality for CT reconstruction. Experimental results demonstrate our method outperforms state-of-the-art methods. Based on experiments, the comprehensive analysis and discussions for views and reconstruction are also presented.
- Abstract(参考訳): エンド・ツー・エンドの深層学習ネットワークを用いた2次元CT画像からの3次元CTボリュームを直接再構成することは難しい課題であり、X線画像は単に3次元CTボリュームの投影ビューである。
本研究では、新しいビュー合成を取り入れた複雑な2次元X線画像から3次元CTマッピングを容易にし、ビュー誘導特徴アライメントによる学習難度を低減する。
具体的には,DVG拡散モデル (DVG-Diffusion) を提案する。
第一に、新しいビューパラメータ誘導エンコーダは、CTと空間的に一致したX線の特徴をキャプチャする。
次に、抽出したデュアルビュー特徴を潜時拡散モデルの条件として結合し、CT潜時表現を学習し、洗練する。
最後に、CT潜在表現を画素空間内のCTボリュームに復号する。
DVG-Diffusion では,高忠実度と知覚品質のバランスが取れた。
実験の結果,本手法は最先端の手法よりも優れていた。
実験に基づいて、総合的な分析と、ビューとリコンストラクションに関する議論もおこなう。
関連論文リスト
- Coarse-Fine View Attention Alignment-Based GAN for CT Reconstruction from Biplanar X-Rays [22.136553745483305]
本稿では,両平面ビューから抽出した特徴を組み合わせるために,新しい注目インフォームド粗視視融合法を提案する。
提案手法がSOTA法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-08-19T06:57:07Z) - Reconstruct Spine CT from Biplanar X-Rays via Diffusion Learning [26.866131691476255]
術中CT画像は外科的指導に欠かせない資料であるが、必ずしも手軽に利用でき、実装も容易ではない。
本稿では,バイプレナーX線を用いた3次元CT再構成手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T06:34:01Z) - DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。