論文の概要: Fast and accurate sparse-view CBCT reconstruction using meta-learned
neural attenuation field and hash-encoding regularization
- arxiv url: http://arxiv.org/abs/2312.01689v2
- Date: Wed, 17 Jan 2024 01:29:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 20:04:07.331280
- Title: Fast and accurate sparse-view CBCT reconstruction using meta-learned
neural attenuation field and hash-encoding regularization
- Title(参考訳): メタ学習神経減衰場とハッシュエンコーディング正規化を用いた高速かつ高精度CBCT再構成
- Authors: Heejun Shin, Taehee Kim, Jongho Lee, Se Young Chun, Seungryung Cho,
Dongmyung Shin
- Abstract要約: コーンビームCT(CBCT)は、患者の内部解剖学的構造を可視化する新しい医用イメージング技術である。
再構成画像の品質を維持しながらCBCTスキャンにおける投影回数を減らすことは困難である。
本研究では,高速かつ高精度な CBCT 再構成手法を提案する。
- 参考スコア(独自算出の注目度): 13.01191568245715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cone beam computed tomography (CBCT) is an emerging medical imaging technique
to visualize the internal anatomical structures of patients. During a CBCT
scan, several projection images of different angles or views are collectively
utilized to reconstruct a tomographic image. However, reducing the number of
projections in a CBCT scan while preserving the quality of a reconstructed
image is challenging due to the nature of an ill-posed inverse problem.
Recently, a neural attenuation field (NAF) method was proposed by adopting a
neural radiance field algorithm as a new way for CBCT reconstruction,
demonstrating fast and promising results using only 50 views. However,
decreasing the number of projections is still preferable to reduce potential
radiation exposure, and a faster reconstruction time is required considering a
typical scan time. In this work, we propose a fast and accurate sparse-view
CBCT reconstruction (FACT) method to provide better reconstruction quality and
faster optimization speed in the minimal number of view acquisitions ($<$ 50
views). In the FACT method, we meta-trained a neural network and a hash-encoder
using a few scans (= 15), and a new regularization technique is utilized to
reconstruct the details of an anatomical structure. In conclusion, we have
shown that the FACT method produced better, and faster reconstruction results
over the other conventional algorithms based on CBCT scans of different body
parts (chest, head, and abdomen) and CT vendors (Siemens, Phillips, and GE).
- Abstract(参考訳): コーンビームCT(CBCT)は、患者の内部解剖学的構造を可視化する新しい医療画像技術である。
CBCTスキャンでは、異なる角度やビューの投影画像を集合的に利用してトモグラフィ画像の再構成を行う。
しかし, 再構成画像の品質を維持しつつ, CBCTスキャンにおける投影数を減らすことは, 逆問題の性質から困難である。
近年, CBCT再構成のための新しい手法としてニューラル・ラジオアンス・フィールド・アルゴリズムを採用し, 50ビューで高速かつ有望な結果を示すニューラル・減衰場(NAF)法が提案されている。
しかし, 被曝電位を減少させるには投影数の減少が望ましいが, 典型的な走査時間を考えると, より早い再構成時間が必要となる。
そこで本研究では,最小のビュー取得数(50ビュー)において,より優れたコンストラクション品質と高速な最適化速度を実現するために,高速かつ高精度なsparse-view cbct reconstruction (fact) 法を提案する。
FACT法では,数個のスキャン(=15)を用いてニューラルネットワークとハッシュエンコーダをメタトレーニングし,新しい正規化手法を用いて解剖学的構造の詳細を再構築した。
その結果,異なる体部(胸部,頭部,腹部)とctベンダー(シーメンス,フィリップス,ge)のcbctスキャンに基づく他の従来のアルゴリズムと比較して,ファクト法がより良く,より高速に再構成できることがわかった。
関連論文リスト
- Intensity Field Decomposition for Tissue-Guided Neural Tomography [30.81166574148901]
本稿では,ヒト組織正則化による神経野の増強を目的とした,新しいスパースビューCBCT再構成法を提案する。
組織誘導型神経断層撮影 (TNT) は, CBCTにおける骨と軟部組織の違いが特徴である。
提案手法は,最先端のニューラルレンダリング手法と比較して,プロジェクションの削減と収束の高速化により,同等の再現性を実現する。
論文 参考訳(メタデータ) (2024-11-01T06:31:53Z) - AC-IND: Sparse CT reconstruction based on attenuation coefficient estimation and implicit neural distribution [12.503822675024054]
CTは産業用非破壊検査や診断において重要な役割を担っている。
スパースビューCT再構成は,少数のプロジェクションのみを使用しながら,高品質なCT像を再構成することを目的としている。
本稿では,減衰係数推定と入射ニューラル分布に基づく自己教師型手法であるAC-INDを紹介する。
論文 参考訳(メタデータ) (2024-09-11T10:34:41Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Enhancing Low-dose CT Image Reconstruction by Integrating Supervised and
Unsupervised Learning [13.17680480211064]
X線CT画像再構成のためのハイブリッド教師なし学習フレームワークを提案する。
提案された各訓練ブロックは、決定論的MBIRソルバとニューラルネットワークで構成されている。
限られた訓練データを用いた低用量CT画像再構成における本学習ハイブリッドモデルの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-19T20:23:59Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - SNAF: Sparse-view CBCT Reconstruction with Neural Attenuation Fields [71.84366290195487]
神経減衰場を学習し,スパースビューCBCT再構成のためのSNAFを提案する。
提案手法は,入力ビューが20程度しかなく,高再生品質(30以上のPSNR)で優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-30T14:51:14Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - The Application of Convolutional Neural Networks for Tomographic
Reconstruction of Hyperspectral Images [0.0]
畳み込みニューラルネットワーク(CNN)を用いた新しい手法を提案し,CTIS(Computed Imaging Spectrometer)画像から超スペクトル立方体を再構成する。
CNNは標準的な予測アルゴリズムよりも精度が高く、復元時間が短い。
論文 参考訳(メタデータ) (2021-08-30T18:11:08Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - A computationally efficient reconstruction algorithm for circular
cone-beam computed tomography using shallow neural networks [0.0]
本稿では,ニューラルネットワークFeldkamp-Davis-Kress (NN-FDK)アルゴリズムを提案する。
FDKアルゴリズムに機械学習コンポーネントを追加し、計算効率を維持しながら再構成精度を向上させる。
NN-FDKネットワークのトレーニング時間は、考慮されたディープニューラルネットワークよりも桁違いに低く、再構成精度はわずかに低下している。
論文 参考訳(メタデータ) (2020-10-01T14:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。