論文の概要: Learning Deep Intensity Field for Extremely Sparse-View CBCT
Reconstruction
- arxiv url: http://arxiv.org/abs/2303.06681v3
- Date: Thu, 31 Aug 2023 07:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 20:37:15.849974
- Title: Learning Deep Intensity Field for Extremely Sparse-View CBCT
Reconstruction
- Title(参考訳): 超疎視型cbct再構成のための深部強度場学習
- Authors: Yiqun Lin, Zhongjin Luo, Wei Zhao, and Xiaomeng Li
- Abstract要約: Sparse-view cone-beam CT (CBCT) 再建は放射線線量削減と臨床応用のための重要な方向である。
従来のボクセルベースの生成方法は、CTを離散ボクセルとして表現する。
超高速視界から高画質CBCT再構成を行うための新しいDIF-Netを開発した。
- 参考スコア(独自算出の注目度): 10.06715158736831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse-view cone-beam CT (CBCT) reconstruction is an important direction to
reduce radiation dose and benefit clinical applications. Previous voxel-based
generation methods represent the CT as discrete voxels, resulting in high
memory requirements and limited spatial resolution due to the use of 3D
decoders. In this paper, we formulate the CT volume as a continuous intensity
field and develop a novel DIF-Net to perform high-quality CBCT reconstruction
from extremely sparse (fewer than 10) projection views at an ultrafast speed.
The intensity field of a CT can be regarded as a continuous function of 3D
spatial points. Therefore, the reconstruction can be reformulated as regressing
the intensity value of an arbitrary 3D point from given sparse projections.
Specifically, for a point, DIF-Net extracts its view-specific features from
different 2D projection views. These features are subsequently aggregated by a
fusion module for intensity estimation. Notably, thousands of points can be
processed in parallel to improve efficiency during training and testing. In
practice, we collect a knee CBCT dataset to train and evaluate DIF-Net.
Extensive experiments show that our approach can reconstruct CBCT with high
image quality and high spatial resolution from extremely sparse views within
1.6 seconds, significantly outperforming state-of-the-art methods. Our code
will be available at https://github.com/xmed-lab/DIF-Net.
- Abstract(参考訳): Sparse-view cone-beam CT (CBCT) 再建は放射線線量削減と臨床応用のための重要な方向である。
従来のボクセルベースの生成方法はCTを離散ボクセルとして表現しており、3Dデコーダの使用により高いメモリ要求と空間解像度が制限される。
本稿では,ctボリュームを連続的な強度場として定式化し,超高速で超疎射影から高品質なcbct再構成を行う新しいdif-netを開発した。
CTの強度場は3次元空間点の連続関数と見なすことができる。
これにより、任意の3D点の強度値を所定のスパース投影から引き戻すように再構成することができる。
特に、DIF-Netは、異なる2Dプロジェクションビューからビュー特有の特徴を抽出する。
これらの特徴はその後、強度推定のための融合モジュールによって集約される。
特に、トレーニングやテストの効率を改善するために、何千ものポイントを並行して処理することができる。
実際に膝CBCTデータセットを収集し,DIF-Netのトレーニングと評価を行う。
広範な実験により,高画質,高空間解像度のcbctを1.6秒以内で再現できることが判明した。
私たちのコードはhttps://github.com/xmed-lab/dif-netで利用可能です。
関連論文リスト
- Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - A three-dimensional dual-domain deep network for high-pitch and sparse
helical CT reconstruction [13.470588027095264]
我々はヘリカルCT再構成のためのKatsevichアルゴリズムのGPU実装を提案する。
本実装では, シングラムを分割し, CT画像のピッチをピッチで再構成する。
この実装をネットワークに埋め込むことにより,高ピッチヘリカルCT再構成のためのエンドツーエンドのディープネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-07T03:26:15Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Sparse-View Spectral CT Reconstruction Using Deep Learning [0.283239609744735]
マルチチャネル入力と出力を持つU-Net畳み込みニューラルネットワークアーキテクチャを用いて、スパースビュースペクトルCTデータを高速に再構成する手法を提案する。
我々の手法は実行時に高速であり、内部の畳み込みはチャネル間で共有されるため、計算負荷は第一層と最後の層でのみ増加する。
論文 参考訳(メタデータ) (2020-11-30T14:36:23Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。