論文の概要: SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2309.04960v1
- Date: Sun, 10 Sep 2023 08:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 15:30:27.568268
- Title: SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks
- Title(参考訳): SdCT-GAN: 自己駆動型生成対向ネットワークを用いたバイプレナーX線からのCT再構成
- Authors: Shuangqin Cheng, Qingliang Chen, Qiyi Zhang, Ming Li, Yamuhanmode
Alike, Kaile Su and Pengcheng Wen
- Abstract要約: 本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
- 参考スコア(独自算出の注目度): 6.624839896733912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computed Tomography (CT) is a medical imaging modality that can generate more
informative 3D images than 2D X-rays. However, this advantage comes at the
expense of more radiation exposure, higher costs, and longer acquisition time.
Hence, the reconstruction of 3D CT images using a limited number of 2D X-rays
has gained significant importance as an economical alternative. Nevertheless,
existing methods primarily prioritize minimizing pixel/voxel-level intensity
discrepancies, often neglecting the preservation of textural details in the
synthesized images. This oversight directly impacts the quality of the
reconstructed images and thus affects the clinical diagnosis. To address the
deficits, this paper presents a new self-driven generative adversarial network
model (SdCT-GAN), which is motivated to pay more attention to image details by
introducing a novel auto-encoder structure in the discriminator. In addition, a
Sobel Gradient Guider (SGG) idea is applied throughout the model, where the
edge information from the 2D X-ray image at the input can be integrated.
Moreover, LPIPS (Learned Perceptual Image Patch Similarity) evaluation metric
is adopted that can quantitatively evaluate the fine contours and textures of
reconstructed images better than the existing ones. Finally, the qualitative
and quantitative results of the empirical studies justify the power of the
proposed model compared to mainstream state-of-the-art baselines.
- Abstract(参考訳): CT(Computerd Tomography)は、2次元X線よりも情報的な3D画像を生成する医療画像モダリティである。
しかし、この利点は、より多くの放射線被曝、高いコスト、より長い取得時間を犠牲にしている。
そのため, 限られた2次元X線を用いた3次元CT画像の再構成は, 経済的代替物として重要視されている。
それにもかかわらず、既存の手法は主に画素/ボクセルレベルの強度差の最小化を優先し、合成画像におけるテクスチャの詳細の保存を無視する。
この監視は再建画像の品質に直接影響を与え、臨床診断に影響を及ぼす。
そこで本研究では,識別器に新たな自己エンコーダ構造を導入することにより,画像の詳細により多くの注意を払うことを目的とした,自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
さらに、入力時の2次元X線画像からのエッジ情報を統合できるSGG(Sobel Gradient Guider)の概念をモデル全体に適用する。
さらに, LPIPS (Learned Perceptual Image Patch similarity) 評価指標を採用し, 既存の画像よりも微細な輪郭やテクスチャを定量的に評価する。
最後に、実証研究の質的かつ定量的な結果は、提案されたモデルのパワーを、主流の最先端のベースラインと比較して正当化する。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - X-ray2CTPA: Generating 3D CTPA scans from 2D X-ray conditioning [24.233484690096898]
胸部X線または胸部X線撮影(CXR)はCTスキャンと比較して限られた画像撮影を可能にする。
CTスキャンはCXRよりもコストが高く、放射線被曝も大きく、アクセス性も低い。
本研究では,2次元低コントラスト分解能X線入力から3次元高コントラストおよび空間分解能Aスキャンへのクロスモーダル変換について検討する。
論文 参考訳(メタデータ) (2024-06-23T13:53:35Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。