論文の概要: Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays
- arxiv url: http://arxiv.org/abs/2303.05297v1
- Date: Thu, 9 Mar 2023 14:45:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 14:31:16.201394
- Title: Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays
- Title(参考訳): 平面X線からの視線投影による3次元CT再構成
- Authors: Daeun Kyung, Kyungmin Jo, Jaegul Choo, Joonseok Lee, Edward Choi
- Abstract要約: 我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
- 参考スコア(独自算出の注目度): 32.98966469644061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: X-ray computed tomography (CT) is one of the most common imaging techniques
used to diagnose various diseases in the medical field. Its high contrast
sensitivity and spatial resolution allow the physician to observe details of
body parts such as bones, soft tissue, blood vessels, etc. As it involves
potentially harmful radiation exposure to patients and surgeons, however,
reconstructing 3D CT volume from perpendicular 2D X-ray images is considered a
promising alternative, thanks to its lower radiation risk and better
accessibility. This is highly challenging though, since it requires
reconstruction of 3D anatomical information from 2D images with limited views,
where all the information is overlapped. In this paper, we propose PerX2CT, a
novel CT reconstruction framework from X-ray that reflects the perspective
projection scheme. Our proposed method provides a different combination of
features for each coordinate which implicitly allows the model to obtain
information about the 3D location. We reveal the potential to reconstruct the
selected part of CT with high resolution by properly using the coordinate-wise
local and global features. Our approach shows potential for use in clinical
applications with low computational complexity and fast inference time,
demonstrating superior performance than baselines in multiple evaluation
metrics.
- Abstract(参考訳): X線CT(CT)は、医療分野における様々な疾患の診断に最もよく用いられる画像技術の一つである。
高いコントラスト感度と空間分解能により、医師は骨、軟組織、血管などの身体部位の詳細を観察できる。
しかし、患者や外科医に潜在的に有害な放射線被曝を伴うため、垂直2次元x線画像からの3dctボリュームの再構成は、放射線リスクの低減とアクセシビリティの向上により、有望な選択肢であると考えられている。
しかし、すべての情報が重複する2d画像から3d解剖学的情報を再構築する必要があるため、これは非常に難しい。
本稿では,視点投影方式を反映した新しいX線CT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標の異なる特徴の組み合わせを提供し,モデルが3d位置に関する情報を暗黙的に得ることを可能にする。
局所的特徴と大域的特徴を適切に利用することにより,CTの選択部分を高解像度で再構成する可能性を明らかにする。
提案手法は, 計算量が少なく, 推測時間も速い臨床応用の可能性を示し, 複数の評価指標において, ベースラインよりも優れた性能を示す。
関連論文リスト
- TomoGRAF: A Robust and Generalizable Reconstruction Network for Single-View Computed Tomography [3.1209855614927275]
従来の解析的・定性的なCT再構成アルゴリズムは数百の角データサンプリングを必要とする。
我々は,高品質な3Dボリュームを再構成するために,ユニークなX線輸送物理を取り入れた新しいTtomoGRAFフレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-12T20:07:59Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Coarse-Fine View Attention Alignment-Based GAN for CT Reconstruction from Biplanar X-Rays [22.136553745483305]
本稿では,両平面ビューから抽出した特徴を組み合わせるために,新しい注目インフォームド粗視視融合法を提案する。
提案手法がSOTA法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-08-19T06:57:07Z) - DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。