論文の概要: XctDiff: Reconstruction of CT Images with Consistent Anatomical Structures from a Single Radiographic Projection Image
- arxiv url: http://arxiv.org/abs/2406.04679v2
- Date: Fri, 14 Jun 2024 00:41:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 18:13:31.836766
- Title: XctDiff: Reconstruction of CT Images with Consistent Anatomical Structures from a Single Radiographic Projection Image
- Title(参考訳): XctDiff:1枚のX線投影画像から連続した解剖学的構造を持つCT画像の再構成
- Authors: Qingze Bai, Tiange Liu, Zhi Liu, Yubing Tong, Drew Torigian, Jayaram Udupa,
- Abstract要約: XctDiffは、単一のラジオグラフからCTを再構成するためのアルゴリズムフレームワークである。
まず,ロバストな3D先行情報を抽出できるプログレッシブな特徴抽出戦略を設計する。
次に,抽出した先行情報を用いて,潜伏空間におけるCT再構成を誘導する。
- 参考スコア(独自算出の注目度): 4.169099546864143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present XctDiff, an algorithm framework for reconstructing CT from a single radiograph, which decomposes the reconstruction process into two easily controllable tasks: feature extraction and CT reconstruction. Specifically, we first design a progressive feature extraction strategy that is able to extract robust 3D priors from radiographs. Then, we use the extracted prior information to guide the CT reconstruction in the latent space. Moreover, we design a homogeneous spatial codebook to improve the reconstruction quality further. The experimental results show that our proposed method achieves state-of-the-art reconstruction performance and overcomes the blurring issue. We also apply XctDiff on self-supervised pre-training task. The effectiveness indicates that it has promising additional applications in medical image analysis. The code is available at:https://github.com/qingze-bai/XctDiff
- Abstract(参考訳): 本稿では,XctDiffを提案する。XctDiffは1つのラジオグラフからCTを再構成するアルゴリズムフレームワークで,再構成過程を特徴抽出とCT再構成という2つの簡単な制御可能なタスクに分解する。
具体的には、まず、ラジオグラフィーから堅牢な3D先行情報を抽出できるプログレッシブ特徴抽出戦略を設計する。
次に,抽出した先行情報を用いて,潜伏空間におけるCT再構成を誘導する。
さらに,同質な空間コードブックを設計し,再現性の向上を図る。
実験の結果,提案手法は最先端の復元性能を実現し,ぼやけた問題を克服することがわかった。
また,自己指導型事前学習タスクにもXctDiffを適用した。
この効果は、医用画像解析に有望な応用があることを示唆している。
コードは、https://github.com/qingze-bai/XctDiffで入手できる。
関連論文リスト
- DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Enhancing Low-dose CT Image Reconstruction by Integrating Supervised and
Unsupervised Learning [13.17680480211064]
X線CT画像再構成のためのハイブリッド教師なし学習フレームワークを提案する。
提案された各訓練ブロックは、決定論的MBIRソルバとニューラルネットワークで構成されている。
限られた訓練データを用いた低用量CT画像再構成における本学習ハイブリッドモデルの有効性を実証する。
論文 参考訳(メタデータ) (2023-11-19T20:23:59Z) - APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Self-Supervised Coordinate Projection Network for Sparse-View Computed
Tomography [31.774432128324385]
本研究では,1つのSVシングラムからアーチファクトフリーCT像を再構成する自己監督コーディネートプロジェクションnEtwork(SCOPE)を提案する。
暗黙的ニューラル表現ネットワーク(INR)を用いた類似の問題を解決する最近の研究と比較して、我々の重要な貢献は効果的で単純な再投射戦略である。
論文 参考訳(メタデータ) (2022-09-12T06:14:04Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - AI-Enabled Ultra-Low-Dose CT Reconstruction [8.135337706680097]
本稿では,X線撮影と同等の低線量で画像品質を診断できるAIを用いたCT再構成法を提案する。
臨床データセットの再構成結果から,36個のプロジェクションからのSUGARを用いて優れた画像の再構成が可能であることが示された。
論文 参考訳(メタデータ) (2021-06-17T22:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。