論文の概要: Learning Deep Intensity Field for Extremely Sparse-View CBCT
Reconstruction
- arxiv url: http://arxiv.org/abs/2303.06681v3
- Date: Thu, 31 Aug 2023 07:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 20:37:15.849974
- Title: Learning Deep Intensity Field for Extremely Sparse-View CBCT
Reconstruction
- Title(参考訳): 超疎視型cbct再構成のための深部強度場学習
- Authors: Yiqun Lin, Zhongjin Luo, Wei Zhao, and Xiaomeng Li
- Abstract要約: Sparse-view cone-beam CT (CBCT) 再建は放射線線量削減と臨床応用のための重要な方向である。
従来のボクセルベースの生成方法は、CTを離散ボクセルとして表現する。
超高速視界から高画質CBCT再構成を行うための新しいDIF-Netを開発した。
- 参考スコア(独自算出の注目度): 10.06715158736831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse-view cone-beam CT (CBCT) reconstruction is an important direction to
reduce radiation dose and benefit clinical applications. Previous voxel-based
generation methods represent the CT as discrete voxels, resulting in high
memory requirements and limited spatial resolution due to the use of 3D
decoders. In this paper, we formulate the CT volume as a continuous intensity
field and develop a novel DIF-Net to perform high-quality CBCT reconstruction
from extremely sparse (fewer than 10) projection views at an ultrafast speed.
The intensity field of a CT can be regarded as a continuous function of 3D
spatial points. Therefore, the reconstruction can be reformulated as regressing
the intensity value of an arbitrary 3D point from given sparse projections.
Specifically, for a point, DIF-Net extracts its view-specific features from
different 2D projection views. These features are subsequently aggregated by a
fusion module for intensity estimation. Notably, thousands of points can be
processed in parallel to improve efficiency during training and testing. In
practice, we collect a knee CBCT dataset to train and evaluate DIF-Net.
Extensive experiments show that our approach can reconstruct CBCT with high
image quality and high spatial resolution from extremely sparse views within
1.6 seconds, significantly outperforming state-of-the-art methods. Our code
will be available at https://github.com/xmed-lab/DIF-Net.
- Abstract(参考訳): Sparse-view cone-beam CT (CBCT) 再建は放射線線量削減と臨床応用のための重要な方向である。
従来のボクセルベースの生成方法はCTを離散ボクセルとして表現しており、3Dデコーダの使用により高いメモリ要求と空間解像度が制限される。
本稿では,ctボリュームを連続的な強度場として定式化し,超高速で超疎射影から高品質なcbct再構成を行う新しいdif-netを開発した。
CTの強度場は3次元空間点の連続関数と見なすことができる。
これにより、任意の3D点の強度値を所定のスパース投影から引き戻すように再構成することができる。
特に、DIF-Netは、異なる2Dプロジェクションビューからビュー特有の特徴を抽出する。
これらの特徴はその後、強度推定のための融合モジュールによって集約される。
特に、トレーニングやテストの効率を改善するために、何千ものポイントを並行して処理することができる。
実際に膝CBCTデータセットを収集し,DIF-Netのトレーニングと評価を行う。
広範な実験により,高画質,高空間解像度のcbctを1.6秒以内で再現できることが判明した。
私たちのコードはhttps://github.com/xmed-lab/dif-netで利用可能です。
関連論文リスト
- Swap-Net: A Memory-Efficient 2.5D Network for Sparse-View 3D Cone Beam CT Reconstruction [13.891441371598546]
プロジェクションの限られたセットから3次元コーンビーム計算トモグラフィ(CBCT)画像の再構成は、多くの画像応用において逆問題である。
本稿では,スパースビュー3次元CBCT画像再構成のためのメモリ効率2.5DネットワークであるSwap-Netを提案する。
論文 参考訳(メタデータ) (2024-09-29T08:36:34Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - A three-dimensional dual-domain deep network for high-pitch and sparse
helical CT reconstruction [13.470588027095264]
我々はヘリカルCT再構成のためのKatsevichアルゴリズムのGPU実装を提案する。
本実装では, シングラムを分割し, CT画像のピッチをピッチで再構成する。
この実装をネットワークに埋め込むことにより,高ピッチヘリカルCT再構成のためのエンドツーエンドのディープネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-07T03:26:15Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。