論文の概要: TiAVox: Time-aware Attenuation Voxels for Sparse-view 4D DSA
Reconstruction
- arxiv url: http://arxiv.org/abs/2309.02318v2
- Date: Tue, 19 Dec 2023 08:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 23:12:05.078337
- Title: TiAVox: Time-aware Attenuation Voxels for Sparse-view 4D DSA
Reconstruction
- Title(参考訳): TiAVox: Sparse-view 4D DSAリコンストラクションのためのタイムアウェア減衰ボクセル
- Authors: Zhenghong Zhou, Huangxuan Zhao, Jiemin Fang, Dongqiao Xiang, Lei Chen,
Lingxia Wu, Feihong Wu, Wenyu Liu, Chuansheng Zheng and Xinggang Wang
- Abstract要約: スパースビュー4D DSA再構成のための時間認識減衰ボクセル (TiAVox) アプローチを提案する。
TiAVoxは空間次元と時間次元の両方の減衰特性を反映する4D減衰ボクセル格子を導入している。
臨床およびシミュレートされたデータセットに対するTiAVoxアプローチの検証を行った。
- 参考スコア(独自算出の注目度): 34.1903749611458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Four-dimensional Digital Subtraction Angiography (4D DSA) plays a critical
role in the diagnosis of many medical diseases, such as Arteriovenous
Malformations (AVM) and Arteriovenous Fistulas (AVF). Despite its significant
application value, the reconstruction of 4D DSA demands numerous views to
effectively model the intricate vessels and radiocontrast flow, thereby
implying a significant radiation dose. To address this high radiation issue, we
propose a Time-aware Attenuation Voxel (TiAVox) approach for sparse-view 4D DSA
reconstruction, which paves the way for high-quality 4D imaging. Additionally,
2D and 3D DSA imaging results can be generated from the reconstructed 4D DSA
images. TiAVox introduces 4D attenuation voxel grids, which reflect attenuation
properties from both spatial and temporal dimensions. It is optimized by
minimizing discrepancies between the rendered images and sparse 2D DSA images.
Without any neural network involved, TiAVox enjoys specific physical
interpretability. The parameters of each learnable voxel represent the
attenuation coefficients. We validated the TiAVox approach on both clinical and
simulated datasets, achieving a 31.23 Peak Signal-to-Noise Ratio (PSNR) for
novel view synthesis using only 30 views on the clinically sourced dataset,
whereas traditional Feldkamp-Davis-Kress methods required 133 views. Similarly,
with merely 10 views from the synthetic dataset, TiAVox yielded a PSNR of 34.32
for novel view synthesis and 41.40 for 3D reconstruction. We also executed
ablation studies to corroborate the essential components of TiAVox. The code
will be publically available.
- Abstract(参考訳): 4次元デジタルサブトラクション血管造影 (4D DSA) は, 動静脈奇形 (AVM) や動静脈奇形 (AVF) などの多くの疾患の診断において重要な役割を担っている。
その重要な応用価値にもかかわらず、4D DSAの再構築は複雑な容器と放射性コントラストの流れを効果的にモデル化するために多くの視点を必要とする。
この高放射能問題に対処するため,高画質4Dイメージングの道筋をたどるスパースビュー4D DSA再構成のためのTiAVox(Time-Aware Attenuation Voxel)アプローチを提案する。
さらに、再構成した4D DSA画像から2Dおよび3D DSAイメージング結果を生成することができる。
TiAVoxは空間次元と時間次元の両方の減衰特性を反映する4D減衰ボクセル格子を導入している。
レンダリング画像とスパース2D DSA画像との差を最小限にして最適化する。
ニューラルネットワークがなければ、TiAVoxは特定の物理的解釈性を楽しむことができる。
各学習可能なボクセルのパラメータは減衰係数を表す。
臨床およびシミュレートされたデータセットに対するTiAVoxアプローチの有効性を検証し,臨床から得られたデータセットの30ビューのみを用いて,31.23Peak Signal-to-Noise Ratio(PSNR)を新規ビュー合成するために達成した。
同様に、合成データセットからわずか10ビューで、tiavoxは34.32psnrを新規なビュー合成に、41.40psnrを3d再構成に用いた。
また,TiAVoxの本質成分の相関に関するアブレーション研究も行った。
コードは一般公開される予定だ。
関連論文リスト
- EAR: Edge-Aware Reconstruction of 3-D vertebrae structures from bi-planar X-ray images [19.902946440205966]
本稿では,新しいエッジ・アウェア・コンストラクション・ネットワーク(EAR)を提案する。
自動エンコーダアーキテクチャをバックボーンとして,エッジアテンションモジュールと周波数拡張モジュールを提案する。
提案手法は3つの公開データセットを用いて評価し、4つの最先端モデルと比較した。
論文 参考訳(メタデータ) (2024-07-30T16:19:14Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - RSTAR4D: Rotational Streak Artifact Reduction in 4D CBCT using a Separable 4D CNN [13.596931860186013]
4次元コーンビームCT(4D CBCT)は呼吸分解画像を提供し、放射線治療に用いられる。
しかし、呼吸運動を明らかにする能力は、イメージアーティファクトのコストがかかる。
本稿では,ローテーションSTreakアーチファクトリダクションに対処するために,新しい4次元ニューラルネットワークモデル RSTAR4D-Net を提案する。
論文 参考訳(メタデータ) (2024-03-25T01:54:57Z) - Oral-3Dv2: 3D Oral Reconstruction from Panoramic X-Ray Imaging with
Implicit Neural Representation [3.8215162658168524]
Oral-3Dv2は、単一のパノラマX線画像から3Dラジオロジーを再構成する非逆学習モデルである。
本モデルは,2次元座標を3次元空間内のボクセルの密度値にマッピングすることにより,暗黙的に3次元口腔構造を表現することを学習する。
我々の知る限りでは、これは1枚のパノラマX線画像から3Dラジオグラフィ再構成における非逆学習モデルの最初の作品である。
論文 参考訳(メタデータ) (2023-03-21T18:17:27Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - A Hybrid 3DCNN and 3DC-LSTM based model for 4D Spatio-temporal fMRI
data: An ABIDE Autism Classification study [0.0]
本稿では,3次元CNNと3次元磁気LSTMを用いて,全4次元データから特徴を抽出できるエンドツーエンドアルゴリズムを提案する。
提案手法は,NYUサイトとUMサイトにおいて,F1スコア0.78,0.7の単一サイトにおいて,技術結果の状態を達成できることを示す。
論文 参考訳(メタデータ) (2020-02-14T11:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。