論文の概要: Differentiable Voxel-based X-ray Rendering Improves Sparse-View 3D CBCT Reconstruction
- arxiv url: http://arxiv.org/abs/2411.19224v2
- Date: Mon, 02 Dec 2024 02:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:42:42.891163
- Title: Differentiable Voxel-based X-ray Rendering Improves Sparse-View 3D CBCT Reconstruction
- Title(参考訳): 可変Voxel-based X-ray Renderingはスパースビュー3D CBCT再構成を改善した
- Authors: Mohammadhossein Momeni, Vivek Gopalakrishnan, Neel Dey, Polina Golland, Sarah Frisken,
- Abstract要約: 本稿では, Cone-Beam Computed Tomography (CBCT) の自己教師型フレームワークであるDiffVoxについて紹介する。
その結果,高忠実度3D CBCT量を少ないX線から再構成し,電離放射線曝露を低減し,診断の有用性を向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 4.941613865666241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DiffVox, a self-supervised framework for Cone-Beam Computed Tomography (CBCT) reconstruction by directly optimizing a voxelgrid representation using physics-based differentiable X-ray rendering. Further, we investigate how the different implementations of the X-ray image formation model in the renderer affect the quality of 3D reconstruction and novel view synthesis. When combined with our regularized voxel-based learning framework, we find that using an exact implementation of the discrete Beer-Lambert law for X-ray attenuation in the renderer outperforms both widely used iterative CBCT reconstruction algorithms and modern neural field approaches, particularly when given only a few input views. As a result, we reconstruct high-fidelity 3D CBCT volumes from fewer X-rays, potentially reducing ionizing radiation exposure and improving diagnostic utility. Our implementation is available at https://github.com/hossein-momeni/DiffVox.
- Abstract(参考訳): 我々は、物理学に基づく微分可能X線レンダリングを用いて、ボクセルグリッド表現を直接最適化することにより、コーンビームCT(CBCT)再構成のための自己教師型フレームワークであるDiffVoxを提案する。
さらに,レンダラーにおけるX線画像形成モデルの異なる実装が,3次元再構成や新しいビュー合成の質にどのように影響するかを検討する。
正規化されたボクセルベースの学習フレームワークと組み合わせると、レンダラーにおけるX線減衰に対する離散的なBeer-Lambert法則の正確な実装を用いることで、広く使われているCBCT再構成アルゴリズムと現代のニューラルネットワークアプローチの両方、特に少数の入力ビューを付与した場合に性能が向上することがわかった。
その結果,高忠実度3D CBCT量を少ないX線から再構成し,電離放射線曝露を低減し,診断の有用性を向上する可能性が示唆された。
私たちの実装はhttps://github.com/hossein-momeni/DiffVox.comで公開されています。
関連論文リスト
- X-Field: A Physically Grounded Representation for 3D X-ray Reconstruction [25.13707706037451]
医療診断にはX線撮影が不可欠であるが、その使用は潜在的な健康リスクのために厳しく規制されている。
最近の研究は、スパース入力から新しいビューを生成し、CT(Computed Tomography)ボリュームを再構築することに焦点を当てている。
我々はX線画像に特化して設計された最初の3D表現であるX-Fieldを紹介する。
論文 参考訳(メタデータ) (2025-03-11T16:31:56Z) - X-LRM: X-ray Large Reconstruction Model for Extremely Sparse-View Computed Tomography Recovery in One Second [52.11676689269379]
スパースビュー3次元CT再構成は, 限られた2次元X線投影から構造を復元することを目的としている。
既存のフィードフォワード手法は、CNNベースのアーキテクチャの限られた能力と大規模なトレーニングデータセットの不足によって制約される。
X線大画像再構成モデル(X-LRM)を提案する。
論文 参考訳(メタデータ) (2025-03-09T01:39:59Z) - Fan-Beam CT Reconstruction for Unaligned Sparse-View X-ray Baggage Dataset [0.0]
不整合多視点X線バッグデータを用いたキャリブレーションと再構成手法を提案する。
提案手法は,多スペクトル神経減衰場再構成とLinear pushbroom (LPB) カメラモデルを用いたポーズ最適化を組み合わせたものである。
論文 参考訳(メタデータ) (2024-12-04T05:16:54Z) - TomoGRAF: A Robust and Generalizable Reconstruction Network for Single-View Computed Tomography [3.1209855614927275]
従来の解析的・定性的なCT再構成アルゴリズムは数百の角データサンプリングを必要とする。
我々は,高品質な3Dボリュームを再構成するために,ユニークなX線輸送物理を取り入れた新しいTtomoGRAFフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-12T20:07:59Z) - DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - Scalable 3D Reconstruction From Single Particle X-Ray Diffraction Images
Based on Online Machine Learning [34.12502156343611]
我々は,大規模なX線SPIデータセットから3次元マクロ分子の構造を推定するオンライン再構成フレームワークであるX-RAIを紹介する。
我々は,X-RAIがシミュレーションおよび実験環境における小規模データセットの最先端性能を達成することを実証した。
論文 参考訳(メタデータ) (2023-12-22T04:41:31Z) - Structure-Aware Sparse-View X-ray 3D Reconstruction [26.91084106735878]
スパースビューX線3次元再構成のための構造対応X線ニューラルラジオ密度場(SAX-NeRF)を提案する。
Linefomerは、X線の各線分内の依存関係をモデル化することで、3D空間内のオブジェクトの内部構造をキャプチャする。
X3Dの実験では、SAX-NeRFは、新しいビュー合成とCT再構成において、従来のNeRF法を12.56と2.49dBで上回っている。
論文 参考訳(メタデータ) (2023-11-18T03:39:02Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。