論文の概要: DeepSparse: A Foundation Model for Sparse-View CBCT Reconstruction
- arxiv url: http://arxiv.org/abs/2505.02628v1
- Date: Mon, 05 May 2025 13:14:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.682832
- Title: DeepSparse: A Foundation Model for Sparse-View CBCT Reconstruction
- Title(参考訳): DeepSparse: スパースビューCBCT再構成の基礎モデル
- Authors: Yiqun Lin, Hualiang Wang, Jixiang Chen, Jiewen Yang, Jiarong Guo, Xiaomeng Li,
- Abstract要約: スパースビュー再構成は、画質を維持しながらX線投影を少なくすることで放射線を低減させる。
既存の手法では、高い計算要求や異なるデータセットに対する一般化性の欠如といった課題に直面している。
マルチビュー2次元特徴とマルチスケール3次元特徴を統合した新しいネットワークであるDiCEを特徴とする,スパースビューCBCT再構成のための最初の基盤モデルであるDeepSparseを提案する。
- 参考スコア(独自算出の注目度): 9.579390210009521
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cone-beam computed tomography (CBCT) is a critical 3D imaging technology in the medical field, while the high radiation exposure required for high-quality imaging raises significant concerns, particularly for vulnerable populations. Sparse-view reconstruction reduces radiation by using fewer X-ray projections while maintaining image quality, yet existing methods face challenges such as high computational demands and poor generalizability to different datasets. To overcome these limitations, we propose DeepSparse, the first foundation model for sparse-view CBCT reconstruction, featuring DiCE (Dual-Dimensional Cross-Scale Embedding), a novel network that integrates multi-view 2D features and multi-scale 3D features. Additionally, we introduce the HyViP (Hybrid View Sampling Pretraining) framework, which pretrains the model on large datasets with both sparse-view and dense-view projections, and a two-step finetuning strategy to adapt and refine the model for new datasets. Extensive experiments and ablation studies demonstrate that our proposed DeepSparse achieves superior reconstruction quality compared to state-of-the-art methods, paving the way for safer and more efficient CBCT imaging.
- Abstract(参考訳): コーンビームCT(CBCT)は医療分野において重要な3次元イメージング技術であり,高画質イメージングに必要な高放射線被曝は,特に脆弱な個体群において重要な関心を喚起する。
スパースビュー再構成は、画像品質を維持しながら、X線投影を少なくすることで放射線を低減しますが、既存の手法では、高い計算要求や異なるデータセットに対する一般化性の欠如といった課題に直面します。
このような制約を克服するために,DCE(Dual-dimensional Cross-Scale Embedding)とマルチビュー2次元特徴とマルチスケール3次元特徴を統合した新しいネットワークを特徴とする,スパースビューCBCT再構成のための最初の基盤モデルであるDeepSparseを提案する。
HyViP(Hybrid View Smpling Pretraining)フレームワークを導入し、疎視と密視の両方で大規模データセット上でモデルを事前訓練し、新しいデータセットに対してモデルを適応および洗練するための2ステップの微調整戦略を導入する。
広汎な実験およびアブレーション研究により,提案したDeepSparseは,最先端の手法に比べて優れた再構成品質を達成し,より安全で効率的なCBCTイメージングの道を開いた。
関連論文リスト
- TomoGRAF: A Robust and Generalizable Reconstruction Network for Single-View Computed Tomography [3.1209855614927275]
従来の解析的・定性的なCT再構成アルゴリズムは数百の角データサンプリングを必要とする。
我々は,高品質な3Dボリュームを再構成するために,ユニークなX線輸送物理を取り入れた新しいTtomoGRAFフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-12T20:07:59Z) - Efficient One-Step Diffusion Refinement for Snapshot Compressive Imaging [8.819370643243012]
Coded Aperture Snapshot Spectral Imaging (CASSI)は3次元マルチスペクトル画像(MSI)を撮影するための重要な技術である
現在の最先端の手法は、主にエンドツーエンドであり、高周波の詳細を再構築する際の制限に直面している。
本稿では,Snapshot Compressive Imagingのための自己教師型適応フレームワークにおいて,新しい1段階拡散確率モデルを提案する。
論文 参考訳(メタデータ) (2024-09-11T17:02:10Z) - Learning 3D Gaussians for Extremely Sparse-View Cone-Beam CT Reconstruction [9.848266253196307]
Cone-Beam Computed Tomography (CBCT) は医用画像の撮影に欠かせない手法であるが、放射線照射が臨床応用に懸念をもたらす。
本稿では,3次元ガウス空間における特徴分布を表現するために3次元ガウス空間を利用する新しい再構成フレームワーク,DIF-Gaussianを提案する。
2つの公開データセット上でDIF-Gaussianを評価し,従来の最先端手法よりもはるかに優れた再構成性能を示した。
論文 参考訳(メタデータ) (2024-07-01T08:48:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - C^2RV: Cross-Regional and Cross-View Learning for Sparse-View CBCT Reconstruction [17.54830070112685]
コーンビームCT(CBCT)は医療現場で広く用いられている画像技術である。
コーン状X線による測定により, CBCTの復元が困難になる。
本稿では,3次元空間におけるクロスリージョン学習を実現するために,明示的なマルチスケールボリューム表現を活用してC2RVを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:37:56Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。