論文の概要: C^2RV: Cross-Regional and Cross-View Learning for Sparse-View CBCT Reconstruction
- arxiv url: http://arxiv.org/abs/2406.03902v1
- Date: Thu, 6 Jun 2024 09:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 15:29:45.907001
- Title: C^2RV: Cross-Regional and Cross-View Learning for Sparse-View CBCT Reconstruction
- Title(参考訳): C^2RV:スパースビューCBCT再構成のためのクロスレギュレーションとクロスビュー学習
- Authors: Yiqun Lin, Jiewen Yang, Hualiang Wang, Xinpeng Ding, Wei Zhao, Xiaomeng Li,
- Abstract要約: コーンビームCT(CBCT)は医療現場で広く用いられている画像技術である。
コーン状X線による測定により, CBCTの復元が困難になる。
本稿では,3次元空間におけるクロスリージョン学習を実現するために,明示的なマルチスケールボリューム表現を活用してC2RVを提案する。
- 参考スコア(独自算出の注目度): 17.54830070112685
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cone beam computed tomography (CBCT) is an important imaging technology widely used in medical scenarios, such as diagnosis and preoperative planning. Using fewer projection views to reconstruct CT, also known as sparse-view reconstruction, can reduce ionizing radiation and further benefit interventional radiology. Compared with sparse-view reconstruction for traditional parallel/fan-beam CT, CBCT reconstruction is more challenging due to the increased dimensionality caused by the measurement process based on cone-shaped X-ray beams. As a 2D-to-3D reconstruction problem, although implicit neural representations have been introduced to enable efficient training, only local features are considered and different views are processed equally in previous works, resulting in spatial inconsistency and poor performance on complicated anatomies. To this end, we propose C^2RV by leveraging explicit multi-scale volumetric representations to enable cross-regional learning in the 3D space. Additionally, the scale-view cross-attention module is introduced to adaptively aggregate multi-scale and multi-view features. Extensive experiments demonstrate that our C^2RV achieves consistent and significant improvement over previous state-of-the-art methods on datasets with diverse anatomy.
- Abstract(参考訳): コーンビームCT(CBCT)は診断や術前計画などの医療シナリオで広く用いられている画像技術である。
スパース・ビュー・リコンストラクション(sparse-view Restruction)とも呼ばれるCTのプロジェクション・ビューを小さくすることで、電離放射線を減らし、さらに干渉放射線学の恩恵を受けることができる。
従来のパラレル/ファンビームCTのスパースビュー再構成と比較すると,円錐形X線による計測プロセスによる寸法変化のため,CBCT再構成は困難である。
2D-to-3D再構成問題として、効率的なトレーニングを実現するために暗黙の神経表現が導入されたが、局所的な特徴のみを考慮し、異なる視点を以前の研究で等しく処理し、複雑な解剖学における空間的不整合と性能の低下をもたらす。
そこで我々は,C^2RVを提案する。C^2RVは3次元空間におけるクロスリージョン学習を実現するために,明示的なマルチスケールボリューム表現を活用する。
さらに、マルチスケールとマルチビューの機能を適応的に集約するために、スケールビューのクロスアテンションモジュールが導入された。
我々のC^2RVは、多様な解剖を持つデータセット上で、過去の最先端の手法よりも一貫性があり、重要な改善を達成している。
関連論文リスト
- TomoGRAF: A Robust and Generalizable Reconstruction Network for Single-View Computed Tomography [3.1209855614927275]
従来の解析的・定性的なCT再構成アルゴリズムは数百の角データサンプリングを必要とする。
我々は,高品質な3Dボリュームを再構成するために,ユニークなX線輸送物理を取り入れた新しいTtomoGRAFフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-12T20:07:59Z) - Reconstruct Spine CT from Biplanar X-Rays via Diffusion Learning [26.866131691476255]
術中CT画像は外科的指導に欠かせない資料であるが、必ずしも手軽に利用でき、実装も容易ではない。
本稿では,バイプレナーX線を用いた3次元CT再構成手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T06:34:01Z) - Learning 3D Gaussians for Extremely Sparse-View Cone-Beam CT Reconstruction [9.848266253196307]
Cone-Beam Computed Tomography (CBCT) は医用画像の撮影に欠かせない手法であるが、放射線照射が臨床応用に懸念をもたらす。
本稿では,3次元ガウス空間における特徴分布を表現するために3次元ガウス空間を利用する新しい再構成フレームワーク,DIF-Gaussianを提案する。
2つの公開データセット上でDIF-Gaussianを評価し,従来の最先端手法よりもはるかに優れた再構成性能を示した。
論文 参考訳(メタデータ) (2024-07-01T08:48:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - SNAF: Sparse-view CBCT Reconstruction with Neural Attenuation Fields [71.84366290195487]
神経減衰場を学習し,スパースビューCBCT再構成のためのSNAFを提案する。
提案手法は,入力ビューが20程度しかなく,高再生品質(30以上のPSNR)で優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-30T14:51:14Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。