論文の概要: Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction
- arxiv url: http://arxiv.org/abs/2303.14739v2
- Date: Wed, 02 Oct 2024 14:43:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:16:44.946916
- Title: Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction
- Title(参考訳): スパースビューCBCT再構成のための幾何認識減衰学習
- Authors: Zhentao Liu, Yu Fang, Changjian Li, Han Wu, Yuan Liu, Dinggang Shen, Zhiming Cui,
- Abstract要約: Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
- 参考スコア(独自算出の注目度): 53.93674177236367
- License:
- Abstract: Cone Beam Computed Tomography (CBCT) plays a vital role in clinical imaging. Traditional methods typically require hundreds of 2D X-ray projections to reconstruct a high-quality 3D CBCT image, leading to considerable radiation exposure. This has led to a growing interest in sparse-view CBCT reconstruction to reduce radiation doses. While recent advances, including deep learning and neural rendering algorithms, have made strides in this area, these methods either produce unsatisfactory results or suffer from time inefficiency of individual optimization. In this paper, we introduce a novel geometry-aware encoder-decoder framework to solve this problem. Our framework starts by encoding multi-view 2D features from various 2D X-ray projections with a 2D CNN encoder. Leveraging the geometry of CBCT scanning, it then back-projects the multi-view 2D features into the 3D space to formulate a comprehensive volumetric feature map, followed by a 3D CNN decoder to recover 3D CBCT image. Importantly, our approach respects the geometric relationship between 3D CBCT image and its 2D X-ray projections during feature back projection stage, and enjoys the prior knowledge learned from the data population. This ensures its adaptability in dealing with extremly sparse view inputs without individual training, such as scenarios with only 5 or 10 X-ray projections. Extensive evaluations on two simulated datasets and one real-world dataset demonstrate exceptional reconstruction quality and time efficiency of our method.
- Abstract(参考訳): Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像を再構成するために数百の2次元のX線プロジェクションを必要とするため、かなりの放射線にさらされる。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
ディープラーニングやニューラルレンダリングアルゴリズムを含む最近の進歩はこの分野に進歩をもたらしたが、これらの手法は満足のいく結果を生み出すか、個人最適化の時間的非効率に悩まされる。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
我々のフレームワークは、様々な2次元X線プロジェクションから2次元CNNエンコーダでマルチビュー2D特徴を符号化することから始まる。
CBCTスキャンの幾何を利用して、複数のビュー2D機能を3D空間にバックプロジェクションし、包括的なボリューム特徴マップを定式化し、3D CNNデコーダで3D CBCTイメージを復元する。
提案手法では,3次元CBCT画像と2次元X線投影との幾何学的関係を考察し,データ個体群から得られた事前知識を享受する。
これにより、個々のトレーニングなしに、非常にスパースなビューインプットを処理できる。例えば、5または10のX線投影しか持たないシナリオなどである。
2つのシミュレーションデータセットと1つの実世界のデータセットの大規模な評価は、我々の手法の異常な再構成品質と時間効率を示している。
関連論文リスト
- CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - C^2RV: Cross-Regional and Cross-View Learning for Sparse-View CBCT Reconstruction [17.54830070112685]
コーンビームCT(CBCT)は医療現場で広く用いられている画像技術である。
コーン状X線による測定により, CBCTの復元が困難になる。
本稿では,3次元空間におけるクロスリージョン学習を実現するために,明示的なマルチスケールボリューム表現を活用してC2RVを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:37:56Z) - Fast and accurate sparse-view CBCT reconstruction using meta-learned
neural attenuation field and hash-encoding regularization [13.01191568245715]
コーンビームCT(CBCT)は、患者の内部解剖学的構造を可視化する新しい医用イメージング技術である。
再構成画像の品質を維持しながらCBCTスキャンにおける投影回数を減らすことは困難である。
本研究では,高速かつ高精度な CBCT 再構成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T07:23:44Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - SNAF: Sparse-view CBCT Reconstruction with Neural Attenuation Fields [71.84366290195487]
神経減衰場を学習し,スパースビューCBCT再構成のためのSNAFを提案する。
提案手法は,入力ビューが20程度しかなく,高再生品質(30以上のPSNR)で優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-30T14:51:14Z) - Computed Tomography Reconstruction using Generative Energy-Based Priors [13.634603375405744]
我々は、基準CTデータに基づいて、その可能性の最大化により、大域的受容場を持つパラメトリック正則化器を学習する。
正規化器を限られた角度と少数のCT再構成問題に適用し、従来の再構成アルゴリズムよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-03-23T18:26:23Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。