論文の概要: Two-View Topogram-Based Anatomy-Guided CT Reconstruction for Prospective
Risk Minimization
- arxiv url: http://arxiv.org/abs/2401.12725v1
- Date: Tue, 23 Jan 2024 12:53:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 15:44:02.949517
- Title: Two-View Topogram-Based Anatomy-Guided CT Reconstruction for Prospective
Risk Minimization
- Title(参考訳): 危険最小化のためのTopogram-based Anatomy-Guided CT 再構成
- Authors: Chang Liu, Laura Klein, Yixing Huang, Edith Baader, Michael Lell, Marc
Kachelrie{\ss} and Andreas Maier
- Abstract要約: GAN(Generative Adversarial Network)に基づくCT再構成モデルを提案する。
GANは3Dボリュームを前方と外側のCTプロジェクションから再構成するように訓練されている。
提案手法は,PSNRが26.49,RMSEが196.17,SSIMが0.64,SSIMが26.21,201.55,0.63でCTボリュームを再構成できる。
- 参考スコア(独自算出の注目度): 6.143855587452395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To facilitate a prospective estimation of CT effective dose and risk
minimization process, a prospective spatial dose estimation and the known
anatomical structures are expected. To this end, a CT reconstruction method is
required to reconstruct CT volumes from as few projections as possible, i.e. by
using the topograms, with anatomical structures as correct as possible. In this
work, an optimized CT reconstruction model based on a generative adversarial
network (GAN) is proposed. The GAN is trained to reconstruct 3D volumes from an
anterior-posterior and a lateral CT projection. To enhance anatomical
structures, a pre-trained organ segmentation network and the 3D perceptual loss
are applied during the training phase, so that the model can then generate both
organ-enhanced CT volume and the organ segmentation mask. The proposed method
can reconstruct CT volumes with PSNR of 26.49, RMSE of 196.17, and SSIM of
0.64, compared to 26.21, 201.55 and 0.63 using the baseline method. In terms of
the anatomical structure, the proposed method effectively enhances the organ
shape and boundary and allows for a straight-forward identification of the
relevant anatomical structures. We note that conventional reconstruction
metrics fail to indicate the enhancement of anatomical structures. In addition
to such metrics, the evaluation is expanded with assessing the organ
segmentation performance. The average organ dice of the proposed method is 0.71
compared with 0.63 in baseline model, indicating the enhancement of anatomical
structures.
- Abstract(参考訳): CT有効量及びリスク最小化プロセスの予測的推定を容易にするため、将来的な空間線量推定と既知の解剖学的構造が期待される。
この目的のためには, できるだけ少数の投影からctボリュームを再構築するためにct再構成法が必要であり, 解剖学的構造を可能な限り正しく用いていくことが必要である。
本稿では,gan(generative adversarial network)に基づく最適化ct再構成モデルを提案する。
GANは3Dボリュームを前方と外側のCTプロジェクションから再構成するように訓練されている。
解剖学的構造を高めるために、トレーニングフェーズ中に、事前訓練された臓器分節ネットワークと3次元知覚損失を適用し、そのモデルが臓器拡張CTボリュームと臓器分節マスクの両方を生成する。
提案手法では,psnr26.49,rmse196.17,ssim0.64のctボリュームを,ベースライン法を用いて26.21,201.55,063に対して再構成できる。
解剖学的構造の観点からは,提案手法は臓器の形状と境界を効果的に拡張し,関連する解剖学的構造の直接的識別を可能にする。
従来の再建基準は解剖学的構造の向上を示すものではない。
これらの指標に加えて、臓器のセグメンテーション性能の評価により評価が拡大される。
提案法の平均臓器径は0.71であり, ベースラインモデルでは0.63であり, 解剖学的構造の増強が示唆された。
関連論文リスト
- TopoTxR: A topology-guided deep convolutional network for breast parenchyma learning on DCE-MRIs [49.69047720285225]
そこで本研究では,乳房側葉構造をよりよく近似するために,マルチスケールのトポロジ構造を明示的に抽出する新しいトポロジカルアプローチを提案する。
VICTREファントム乳房データセットを用いてemphTopoTxRを実験的に検証した。
本研究の質的および定量的分析は,乳房組織における画像診断におけるトポロジカルな挙動を示唆するものである。
論文 参考訳(メタデータ) (2024-11-05T19:35:10Z) - Reconstruct Spine CT from Biplanar X-Rays via Diffusion Learning [26.866131691476255]
術中CT画像は外科的指導に欠かせない資料であるが、必ずしも手軽に利用でき、実装も容易ではない。
本稿では,バイプレナーX線を用いた3次元CT再構成手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T06:34:01Z) - Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - A novel method to compute the contact surface area between an organ and cancer tissue [81.84413479369512]
CSA(contact surface area)とは、腫瘍と臓器の間の接触領域のこと。
我々は,腫瘍と臓器の3次元再構成を頼りに,CSAの正確な客観的評価を行う革新的な方法を提案する。
論文 参考訳(メタデータ) (2024-01-19T14:34:34Z) - Solving Low-Dose CT Reconstruction via GAN with Local Coherence [2.325977856241404]
本稿では,局所コヒーレンスを向上したGANを用いた新しい手法を提案する。
提案手法は, 近接画像の局所的コヒーレンスを光学的流れにより捕捉し, 構築した画像の精度と安定性を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-24T08:55:42Z) - Multi-class point cloud completion networks for 3D cardiac anatomy
reconstruction from cine magnetic resonance images [4.1448595037512925]
マルチクラスの心臓解剖学的メッシュを再構築できる新しい完全自動表面再構成パイプラインを提案する。
その鍵となるコンポーネントは、マルチクラスポイントクラウド補完ネットワーク(PCCN)である。
論文 参考訳(メタデータ) (2023-07-17T14:52:52Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Structure-aware registration network for liver DCE-CT images [50.28546654316009]
セグメント化誘導深層登録網に関連臓器の構造情報を組み込んだ構造認識型登録手法を提案する。
提案手法は,最新技術よりも高い登録精度を達成し,解剖学的構造を効果的に維持することができる。
論文 参考訳(メタデータ) (2023-03-08T14:08:56Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z) - Reconstructing Sinus Anatomy from Endoscopic Video -- Towards a
Radiation-free Approach for Quantitative Longitudinal Assessment [23.54387940230938]
内視鏡画像から直接洞解剖の正確な3次元表面モデルを再構築することは,断面解析と縦断解析に有望な道である。
本研究は, 内視鏡的ビデオのみを用いて, 副鼻腔表面解剖の3次元再構成を行うための, 患者固有の学習的手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T23:11:10Z) - A Deep Learning Approach to Automate High-Resolution Blood Vessel
Reconstruction on Computerized Tomography Images With or Without the Use of
Contrast Agent [2.1897279580410896]
拡張性大動脈瘤嚢内の大動脈壁に付着した血栓または血栓が70~80%の症例に認められる。
我々は,病的血管の高スループットパイプラインを構築するため,注意を喚起する改良されたU-Netアーキテクチャを実装した。
この抽出ボリュームは、現在の動脈瘤疾患管理の方法の標準化に使用することができ、その後の複雑な幾何学的および形態学的解析の基礎を定めている。
論文 参考訳(メタデータ) (2020-02-09T22:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。