論文の概要: RSTAR4D: Rotational Streak Artifact Reduction in 4D CBCT using a Separable 4D CNN
- arxiv url: http://arxiv.org/abs/2403.16361v4
- Date: Sun, 29 Sep 2024 05:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 21:59:00.684935
- Title: RSTAR4D: Rotational Streak Artifact Reduction in 4D CBCT using a Separable 4D CNN
- Title(参考訳): RSTAR4D: 分離4次元CNNを用いた4次元CBCTの回転ストリークアーティファクト低減
- Authors: Ziheng Deng, Hua Chen, Yongzheng Zhou, Haibo Hu, Zhiyong Xu, Jiayuan Sun, Tianling Lyu, Yan Xi, Yang Chen, Jun Zhao,
- Abstract要約: 4次元コーンビームCT(4D CBCT)は呼吸分解画像を提供し、放射線治療に用いられる。
しかし、呼吸運動を明らかにする能力は、イメージアーティファクトのコストがかかる。
本稿では,ローテーションSTreakアーチファクトリダクションに対処するために,新しい4次元ニューラルネットワークモデル RSTAR4D-Net を提案する。
- 参考スコア(独自算出の注目度): 13.596931860186013
- License:
- Abstract: Four-dimensional cone-beam computed tomography (4D CBCT) provides respiration-resolved images and can be used for image-guided radiation therapy. However, the ability to reveal respiratory motion comes at the cost of image artifacts. As raw projection data are sorted into multiple respiratory phases, the cone-beam projections become much sparser and the reconstructed 4D CBCT images will be covered by severe streak artifacts. Although several deep learning-based methods have been proposed to address this issue, most algorithms employ 2D network models as backbones, neglecting the intrinsic structural priors within 4D CBCT images. In this paper, we first explore the origin and appearance of streak artifacts in 4D CBCT images. We find that streak artifacts exhibit a unique rotational motion along with the patient's respiration, distinguishable from diaphragm-driven respiratory motion in the spatiotemporal domain. Therefore, we propose a novel 4D neural network model, RSTAR4D-Net, designed to address Rotational STreak Artifact Reduction by integrating the spatial and temporal information within 4D CBCT images. Specifically, we overcome the computational and training difficulties of a 4D neural network. The specially designed model adopts an efficient implementation of 4D convolutions to reduce computational costs and thus can process the whole 4D image in one pass. Additionally, a Tetris training strategy pertinent to the separable 4D convolutions is proposed to effectively train the model using limited 4D training samples. Extensive experiments substantiate the effectiveness of our proposed method, and the RSTAR4D-Net shows superior performance compared to other methods. The source code and dynamic demos are available at https://github.com/ivy9092111111/RSTAR.
- Abstract(参考訳): 4次元コーンビームCT(4D CBCT)は呼吸分解画像を提供し、放射線治療に用いられる。
しかし、呼吸運動を明らかにする能力は、イメージアーティファクトのコストがかかる。
生のプロジェクションデータを複数の呼吸相に分類すると、コーンビームプロジェクションはよりスペーサーになり、再構成された4D CBCT画像は厳しいストリークアーティファクトで被覆される。
この問題に対処するためにいくつかのディープラーニングベースの手法が提案されているが、ほとんどのアルゴリズムは2Dネットワークモデルをバックボーンとして採用しており、4D CBCT画像内の固有の構造的先行性を無視している。
本稿では,まず4次元CBCT画像におけるストリークアーティファクトの起源と外観について検討する。
時空間領域における横隔膜駆動呼吸運動と区別し, ストリークアーティファクトは呼吸とともに独特の回転運動を示すことがわかった。
そこで本研究では、4次元CBCT画像に空間情報と時間情報を統合することにより、回転STreakアーチファクト削減に対処する新しい4次元ニューラルネットワークモデルRSTAR4D-Netを提案する。
具体的には、4Dニューラルネットワークの計算とトレーニングの難しさを克服する。
特別に設計されたモデルは、4D畳み込みの効率的な実装を採用し、計算コストを削減し、4D画像全体を1パスで処理することができる。
さらに,分離可能な4Dコンボリューションに関連するテトリストレーニング戦略を提案し,限られた4Dトレーニングサンプルを用いてモデルを効果的にトレーニングする。
大規模な実験により提案手法の有効性が実証され,RSTAR4D-Netは他の手法と比較して優れた性能を示した。
ソースコードと動的デモはhttps://github.com/ivy90921111/RSTARで公開されている。
関連論文リスト
- Distributed Stochastic Optimization of a Neural Representation Network for Time-Space Tomography Reconstruction [4.689071714940848]
X線CT(Computerd tomography)を用いた動的事象や変形物体の4次元時間空間再構成は、非常に不適切な逆問題である。
既存のアプローチでは、オブジェクトは数千から数百のX線投影計測画像の間静止していると仮定している。
本稿では,新しい分散学習アルゴリズムを用いて学習した,分散暗黙的ニューラルネットワークを用いた4次元時間空間再構成を提案する。
論文 参考訳(メタデータ) (2024-04-29T19:41:51Z) - Artifact Reduction in 3D and 4D Cone-beam Computed Tomography Images with Deep Learning -- A Review [0.0]
コーンビームCT(CBCT)における画像品質向上のための深層学習技術
本稿では,3次元のアーティファクトの削減に成功している深層学習技術の概要と,時間分解(4D)CBCTについて概説する。
この研究の重要な発見の1つは、GANやスコアベース、拡散モデルを含む生成モデルの利用に向けた観測傾向である。
論文 参考訳(メタデータ) (2024-03-27T13:46:01Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Fast and accurate sparse-view CBCT reconstruction using meta-learned
neural attenuation field and hash-encoding regularization [13.01191568245715]
コーンビームCT(CBCT)は、患者の内部解剖学的構造を可視化する新しい医用イメージング技術である。
再構成画像の品質を維持しながらCBCTスキャンにおける投影回数を減らすことは困難である。
本研究では,高速かつ高精度な CBCT 再構成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T07:23:44Z) - TiAVox: Time-aware Attenuation Voxels for Sparse-view 4D DSA
Reconstruction [34.1903749611458]
スパースビュー4D DSA再構成のための時間認識減衰ボクセル (TiAVox) アプローチを提案する。
TiAVoxは空間次元と時間次元の両方の減衰特性を反映する4D減衰ボクセル格子を導入している。
臨床およびシミュレートされたデータセットに対するTiAVoxアプローチの検証を行った。
論文 参考訳(メタデータ) (2023-09-05T15:34:37Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Spatio-Temporal Deep Learning Methods for Motion Estimation Using 4D OCT
Image Data [63.73263986460191]
特定の対象領域の局所化と運動の推定は、外科的介入の際のナビゲーションの一般的な問題である。
OCT画像ボリュームの時間的ストリームを用いることで、深層学習に基づく動き推定性能が向上するかどうかを検討する。
モデル入力に4D情報を使用すると、合理的な推論時間を維持しながら性能が向上する。
論文 参考訳(メタデータ) (2020-04-21T15:43:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。