論文の概要: Reconstruct Spine CT from Biplanar X-Rays via Diffusion Learning
- arxiv url: http://arxiv.org/abs/2408.09731v2
- Date: Wed, 21 Aug 2024 01:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 12:00:34.789478
- Title: Reconstruct Spine CT from Biplanar X-Rays via Diffusion Learning
- Title(参考訳): 拡散学習によるバイプレーンX線からの脊椎CT再構成
- Authors: Zhi Qiao, Xuhui Liu, Xiaopeng Wang, Runkun Liu, Xiantong Zhen, Pei Dong, Zhen Qian,
- Abstract要約: 術中CT画像は外科的指導に欠かせない資料であるが、必ずしも手軽に利用でき、実装も容易ではない。
本稿では,バイプレナーX線を用いた3次元CT再構成手法を提案する。
- 参考スコア(独自算出の注目度): 26.866131691476255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intraoperative CT imaging serves as a crucial resource for surgical guidance; however, it may not always be readily accessible or practical to implement. In scenarios where CT imaging is not an option, reconstructing CT scans from X-rays can offer a viable alternative. In this paper, we introduce an innovative method for 3D CT reconstruction utilizing biplanar X-rays. Distinct from previous research that relies on conventional image generation techniques, our approach leverages a conditional diffusion process to tackle the task of reconstruction. More precisely, we employ a diffusion-based probabilistic model trained to produce 3D CT images based on orthogonal biplanar X-rays. To improve the structural integrity of the reconstructed images, we incorporate a novel projection loss function. Experimental results validate that our proposed method surpasses existing state-of-the-art benchmarks in both visual image quality and multiple evaluative metrics. Specifically, our technique achieves a higher Structural Similarity Index (SSIM) of 0.83, a relative increase of 10\%, and a lower Fr\'echet Inception Distance (FID) of 83.43, which represents a relative decrease of 25\%.
- Abstract(参考訳): 術中CT画像は外科的指導に欠かせない資料であるが、必ずしも手軽に利用でき、実装も容易ではない。
CTイメージングがオプションではないシナリオでは、X線からCTスキャンを再構成することは、実行可能な代替手段となる。
本稿では,バイプレナーX線を用いた3次元CT再構成手法を提案する。
従来の画像生成技術に依拠する従来の研究とは対照的に,提案手法は条件付き拡散プロセスを利用して再構成作業に取り組む。
より正確には、直交双平面X線に基づいて3次元CT画像を生成するために訓練された拡散に基づく確率モデルを用いる。
再構成画像の構造的整合性を改善するため,新しい投影損失関数を組み込んだ。
実験の結果,提案手法は画像品質と複数の評価指標の両面で,既存の最先端ベンチマークを上回っていることがわかった。
具体的には, 構造類似度指数 (SSIM) が 0.83 %, 相対的に 10 %, Fr\'echet Inception Distance (FID) が 83.43 % となり, 相対的に 25 % の低下を示す。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Coarse-Fine View Attention Alignment-Based GAN for CT Reconstruction from Biplanar X-Rays [22.136553745483305]
本稿では,両平面ビューから抽出した特徴を組み合わせるために,新しい注目インフォームド粗視視融合法を提案する。
提案手法がSOTA法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-08-19T06:57:07Z) - DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - XTransCT: Ultra-Fast Volumetric CT Reconstruction using Two Orthogonal
X-Ray Projections for Image-guided Radiation Therapy via a Transformer
Network [8.966238080182263]
XTransCTと呼ばれる新しいトランスフォーマーアーキテクチャを導入し,2次元X線画像からのCT画像のリアルタイム再構成を容易にする。
本研究は, 画像品質, 構造精度, 一般化性において, アルゴリズムが他の手法を超越していることを示す。
従来の3次元畳み込み法と比較して, 約300 %の大幅な速度向上が見られ, 3次元画像再構成で44msを達成できた。
論文 参考訳(メタデータ) (2023-05-31T07:41:10Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Improving Computed Tomography (CT) Reconstruction via 3D Shape Induction [3.1498833540989413]
再現モデルのトレーニング中に現実的なX線分布を取り入れた新しい手法として,CTの監督なしに3次元CTの形状を学習する形状誘導法を提案する。
本研究は, 肺疾患におけるCTの知覚的品質と下流分類の精度を両立させることを実証した。
論文 参考訳(メタデータ) (2022-08-23T13:06:02Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Probabilistic 3D surface reconstruction from sparse MRI information [58.14653650521129]
スパース2次元MR画像データとアレータティック不確実性予測から3次元表面再構成を同時に行うための新しい確率論的深層学習手法を提案する。
本手法は,3つの準直交MR画像スライスから,限られたトレーニングセットから大きな表面メッシュを再構成することができる。
論文 参考訳(メタデータ) (2020-10-05T14:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。