論文の概要: RadGS-Reg: Registering Spine CT with Biplanar X-rays via Joint 3D Radiative Gaussians Reconstruction and 3D/3D Registration
- arxiv url: http://arxiv.org/abs/2508.21154v1
- Date: Thu, 28 Aug 2025 18:40:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.849792
- Title: RadGS-Reg: Registering Spine CT with Biplanar X-rays via Joint 3D Radiative Gaussians Reconstruction and 3D/3D Registration
- Title(参考訳): RadGS-Reg: 3D Radiative Gaussian 再建と3D/3DレジストレーションによるバイプレナーX線CTの登録
- Authors: Ao Shen, Xueming Fu, Junfeng Jiang, Qiang Zeng, Ye Tang, Zhengming Chen, Luming Nong, Feng Wang, S. Kevin Zhou,
- Abstract要約: RadGS-Regは, 3D-Gaussian (RadGS) 再建と3D/3Dレジストレーションによる脊椎レベルCT/X線レジストレーションのための新しいフレームワークである。
具体的には,両平面X線脊椎RandGS再構成モジュールを用いて,CAL(Counterfactual Attention Learning)機構を用いた学習に基づくRadGS再構成手法を探索する。
社内データセットの実験では、既存のメソッドを越えながら、両方のタスクの最先端のパフォーマンスが実証されている。
- 参考スコア(独自算出の注目度): 34.63390552250008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computed Tomography (CT)/X-ray registration in image-guided navigation remains challenging because of its stringent requirements for high accuracy and real-time performance. Traditional "render and compare" methods, relying on iterative projection and comparison, suffer from spatial information loss and domain gap. 3D reconstruction from biplanar X-rays supplements spatial and shape information for 2D/3D registration, but current methods are limited by dense-view requirements and struggles with noisy X-rays. To address these limitations, we introduce RadGS-Reg, a novel framework for vertebral-level CT/X-ray registration through joint 3D Radiative Gaussians (RadGS) reconstruction and 3D/3D registration. Specifically, our biplanar X-rays vertebral RadGS reconstruction module explores learning-based RadGS reconstruction method with a Counterfactual Attention Learning (CAL) mechanism, focusing on vertebral regions in noisy X-rays. Additionally, a patient-specific pre-training strategy progressively adapts the RadGS-Reg from simulated to real data while simultaneously learning vertebral shape prior knowledge. Experiments on in-house datasets demonstrate the state-of-the-art performance for both tasks, surpassing existing methods. The code is available at: https://github.com/shenao1995/RadGS_Reg.
- Abstract(参考訳): Computed Tomography (CT)/X線による画像誘導ナビゲーションの登録は、高い精度とリアルタイム性能の要求が厳しいため、依然として困難である。
従来の「レンダリングと比較」手法は、反復投影と比較に依存し、空間情報損失とドメインギャップに悩まされる。
両平面X線からの3次元再構成は2次元/3次元登録のための空間情報と形状情報を補完するが、現在の手法は密度の要求とノイズの多いX線との闘いによって制限される。
RadGS-Regは, 3D Radiative Gaussians (RadGS) 再建と3D/3Dレジストレーションによる脊椎レベルCT/X線登録のための新しいフレームワークである。
具体的には,両平面X線椎体再構成モジュールは,ノイズの多いX線における脊椎領域に着目したCAL機構を用いて学習に基づくRadGS再構成手法を探索する。
さらに、患者固有の事前訓練戦略は、RadGS-Regをシミュレーションされたデータから実際のデータに段階的に適応し、同時に脊椎形状の事前知識を学習する。
社内データセットの実験では、既存のメソッドを越えながら、両方のタスクの最先端のパフォーマンスが実証されている。
コードは、https://github.com/shenao 1995/RadGS_Reg.comで入手できる。
関連論文リスト
- Fan-Beam CT Reconstruction for Unaligned Sparse-View X-ray Baggage Dataset [0.0]
不整合多視点X線バッグデータを用いたキャリブレーションと再構成手法を提案する。
提案手法は,多スペクトル神経減衰場再構成とLinear pushbroom (LPB) カメラモデルを用いたポーズ最適化を組み合わせたものである。
論文 参考訳(メタデータ) (2024-12-04T05:16:54Z) - RayEmb: Arbitrary Landmark Detection in X-Ray Images Using Ray Embedding Subspace [0.7937206070844555]
術前CTによるX線画像の術中2D-3D記録は整形外科手術において極めて重要である。
本稿では,X線画像中の任意のランドマーク点を検出することで,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T17:36:21Z) - EAR: Edge-Aware Reconstruction of 3-D vertebrae structures from bi-planar X-ray images [19.902946440205966]
本稿では,新しいエッジ・アウェア・コンストラクション・ネットワーク(EAR)を提案する。
自動エンコーダアーキテクチャをバックボーンとして,エッジアテンションモジュールと周波数拡張モジュールを提案する。
提案手法は3つの公開データセットを用いて評価し、4つの最先端モデルと比較した。
論文 参考訳(メタデータ) (2024-07-30T16:19:14Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Transfer Learning from an Artificial Radiograph-landmark Dataset for
Registration of the Anatomic Skull Model to Dual Fluoroscopic X-ray Images [0.4205692673448206]
人工データセットからトレーニングしたディープニューラルネットワークを用いた3次元から2次元への3次元登録のための移動学習戦略を提案する。
女性被験者の頭頸部CTデータから,デジタル再構成X線写真(DRR)とX線学的頭蓋骨のランドマークを自動生成した。
ランドマーク検出のための残留ネットワーク(ResNet)と、DRRと実際のX線とのスタイルの違いを取り除くためにGAN(Cycle Generative Adversarial Network)のトレーニングに使用された。
人工的なトレーニングデータを戦略的に増強する手法は、複雑な頭蓋骨登録シナリオに取り組むことができ、広範な登録シナリオにまで拡張する可能性がある。
論文 参考訳(メタデータ) (2021-08-14T04:49:36Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。