論文の概要: RSTAR: Rotational Streak Artifact Reduction in 4D CBCT using Separable and Circular Convolutions
- arxiv url: http://arxiv.org/abs/2403.16361v1
- Date: Mon, 25 Mar 2024 01:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 16:17:05.388706
- Title: RSTAR: Rotational Streak Artifact Reduction in 4D CBCT using Separable and Circular Convolutions
- Title(参考訳): RSTAR:4次元CBCTにおける回転ストリークアーティファクトの分離・循環的畳み込みによる低減
- Authors: Ziheng Deng, Hua Chen, Haibo Hu, Zhiyong Xu, Tianling Lyu, Yan Xi, Yang Chen, Jun Zhao,
- Abstract要約: 動的画像の特徴を符号化し、4次元CBCT画像の復元を容易にするRSTAR-Netを提案する。
ストリークアーティファクトは,患者の呼吸とともに周期的な回転運動を示す。
このユニークなパターンは、時間領域における望ましい解剖学的構造とアーティファクトを区別するきっかけになります。
- 参考スコア(独自算出の注目度): 13.11070841951523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Four-dimensional cone-beam computed tomography (4D CBCT) provides respiration-resolved images and can be used for image-guided radiation therapy. However, the ability to reveal respiratory motion comes at the cost of image artifacts. As raw projection data are sorted into multiple respiratory phases, there is a limited number of cone-beam projections available for image reconstruction. Consequently, the 4D CBCT images are covered by severe streak artifacts. Although several deep learning-based methods have been proposed to address this issue, most algorithms employ ordinary network models, neglecting the intrinsic structural prior within 4D CBCT images. In this paper, we first explore the origin and appearance of streak artifacts in 4D CBCT images.Specifically, we find that streak artifacts exhibit a periodic rotational motion along with the patient's respiration. This unique motion pattern inspires us to distinguish the artifacts from the desired anatomical structures in the spatiotemporal domain. Thereafter, we propose a spatiotemporal neural network named RSTAR-Net with separable and circular convolutions for Rotational Streak Artifact Reduction. The specially designed model effectively encodes dynamic image features, facilitating the recovery of 4D CBCT images. Moreover, RSTAR-Net is also lightweight and computationally efficient. Extensive experiments substantiate the effectiveness of our proposed method, and RSTAR-Net shows superior performance to comparison methods.
- Abstract(参考訳): 4次元コーンビームCT(4D CBCT)は呼吸分解画像を提供し、放射線治療に用いられる。
しかし、呼吸運動を明らかにする能力は、イメージアーティファクトのコストがかかる。
生のプロジェクションデータは複数の呼吸段階に分類されるため、画像再構成に利用可能なコーンビームプロジェクションは限られている。
その結果、4D CBCT画像は厳しいストリークアーティファクトで覆われた。
この問題に対処するためにいくつかのディープラーニングに基づく手法が提案されているが、ほとんどのアルゴリズムは通常のネットワークモデルを用いており、4D CBCT画像に先立って固有の構造を無視している。
本稿では,4次元CBCT画像におけるストリークアーティファクトの起源と外観について検討し,ストリークアーティファクトは患者の呼吸とともに周期的な回転運動を示すことを示した。
このユニークな動きパターンは、時空間領域における所望の解剖学的構造とアーティファクトを区別するきっかけとなる。
その後、回転ストリークアーティファクトリダクションのための分離可能な円形畳み込みを用いた時空間ニューラルネットワーク RSTAR-Net を提案する。
この特別設計モデルは動的特徴を効果的に符号化し、4次元CBCT画像の復元を容易にする。
さらに、RSTAR-Netは軽量で計算効率も良い。
大規模な実験により提案手法の有効性が実証され, RSTAR-Netは比較法よりも優れた性能を示した。
関連論文リスト
- 4DRGS: 4D Radiative Gaussian Splatting for Efficient 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images [49.170407434313475]
既存の手法は、しばしば最適以下の結果を生成するか、過剰な計算時間を必要とする。
高品質な高精細化を実現するため、4次元ガウススプラッティング(4DRGS)を提案する。
4DRGSは5分間のトレーニングで印象的な結果を得る。
論文 参考訳(メタデータ) (2024-12-17T13:51:56Z) - MedTet: An Online Motion Model for 4D Heart Reconstruction [59.74234226055964]
本研究は, 術後の軽度データから3次元心臓運動を再構築するための新しいアプローチを提案する。
既存の方法では、フル3次元の体積像から3次元の臓器のジオメトリーを正確に再構築することができる。
このような部分的データから3次元運動を再構築するための汎用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T17:18:33Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - Distributed Stochastic Optimization of a Neural Representation Network for Time-Space Tomography Reconstruction [4.689071714940848]
X線CT(Computerd tomography)を用いた動的事象や変形物体の4次元時間空間再構成は、非常に不適切な逆問題である。
既存のアプローチでは、オブジェクトは数千から数百のX線投影計測画像の間静止していると仮定している。
本稿では,新しい分散学習アルゴリズムを用いて学習した,分散暗黙的ニューラルネットワークを用いた4次元時間空間再構成を提案する。
論文 参考訳(メタデータ) (2024-04-29T19:41:51Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Tensor4D : Efficient Neural 4D Decomposition for High-fidelity Dynamic
Reconstruction and Rendering [31.928844354349117]
動的シーンに対する効率的な4次元テンソル分解法を提案する。
本手法は,スパースビューカメラや単眼カメラから高品質な動的再構成とレンダリングを実現することができることを示す。
コードとデータセットはatliuyebin.com/tensor4d-tensor4d.htmlでリリースされる。
論文 参考訳(メタデータ) (2022-11-21T16:04:45Z) - Multi-Slice Fusion for Sparse-View and Limited-Angle 4D CT
Reconstruction [3.045887205265198]
複数の低次元デノイザの融合に基づく新しい4次元再構成アルゴリズムであるマルチスライス融合を提案する。
分散異種クラスタ上でのマルチスライス融合を実装し,大規模な4次元ボリュームを適切な時間で再構築する。
論文 参考訳(メタデータ) (2020-08-01T02:32:43Z) - Spatio-Temporal Deep Learning Methods for Motion Estimation Using 4D OCT
Image Data [63.73263986460191]
特定の対象領域の局所化と運動の推定は、外科的介入の際のナビゲーションの一般的な問題である。
OCT画像ボリュームの時間的ストリームを用いることで、深層学習に基づく動き推定性能が向上するかどうかを検討する。
モデル入力に4D情報を使用すると、合理的な推論時間を維持しながら性能が向上する。
論文 参考訳(メタデータ) (2020-04-21T15:43:01Z) - V4D:4D Convolutional Neural Networks for Video-level Representation
Learning [58.548331848942865]
映像表現学習用3D CNNの多くはクリップベースであるため,映像時間進化は考慮していない。
4D畳み込みを伴う長距離表現をモデル化するために,ビデオレベル4Dコナールニューラルネットワーク(V4D)を提案する。
V4Dは、最近の3D CNNよりも大きなマージンで優れた結果を得る。
論文 参考訳(メタデータ) (2020-02-18T09:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。