論文の概要: Whole-Body Image-to-Image Translation for a Virtual Scanner in a Healthcare Digital Twin
- arxiv url: http://arxiv.org/abs/2503.15555v1
- Date: Tue, 18 Mar 2025 20:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:39.564453
- Title: Whole-Body Image-to-Image Translation for a Virtual Scanner in a Healthcare Digital Twin
- Title(参考訳): 医療デジタル双生児における仮想スキャナーの全身画像変換
- Authors: Valerio Guarrasi, Francesco Di Feola, Rebecca Restivo, Lorenzo Tronchin, Paolo Soda,
- Abstract要約: 本研究では,全身CT画像を4つの領域(頭,幹,腕,脚)に分割し,地域固有のGAN(Generative Adversarial Networks)を用いてCT-PET翻訳を行うフレームワークを提案する。
この方法論は、CTデータから正確な仮想PETスキャンを可能にし、健康結果を監視し、予測し、最適化するための仮想イメージング表現を作成することで、ヘルスケアのDigital Twinsをサポートする。
- 参考スコア(独自算出の注目度): 0.8714814768600079
- License:
- Abstract: Generating positron emission tomography (PET) images from computed tomography (CT) scans via deep learning offers a promising pathway to reduce radiation exposure and costs associated with PET imaging, improving patient care and accessibility to functional imaging. Whole-body image translation presents challenges due to anatomical heterogeneity, often limiting generalized models. We propose a framework that segments whole-body CT images into four regions-head, trunk, arms, and legs-and uses district-specific Generative Adversarial Networks (GANs) for tailored CT-to-PET translation. Synthetic PET images from each region are stitched together to reconstruct the whole-body scan. Comparisons with a baseline non-segmented GAN and experiments with Pix2Pix and CycleGAN architectures tested paired and unpaired scenarios. Quantitative evaluations at district, whole-body, and lesion levels demonstrated significant improvements with our district-specific GANs. Pix2Pix yielded superior metrics, ensuring precise, high-quality image synthesis. By addressing anatomical heterogeneity, this approach achieves state-of-the-art results in whole-body CT-to-PET translation. This methodology supports healthcare Digital Twins by enabling accurate virtual PET scans from CT data, creating virtual imaging representations to monitor, predict, and optimize health outcomes.
- Abstract(参考訳): 深層学習によるCTスキャンからPET画像を生成することにより、PET画像の放射線被曝とコスト低減、患者のケアの改善、機能画像へのアクセシビリティ向上が期待できる。
全体画像翻訳は解剖学的不均一性による課題を呈し、しばしば一般化されたモデルを制限する。
本研究では,全身CT画像を4つの領域(頭,幹,腕,脚)に分割し,地域固有のGAN(Generative Adversarial Networks)を用いてCT-PET翻訳を行うフレームワークを提案する。
各領域からの合成PET画像を縫合して全身スキャンを再構築する。
ベースラインの非セグメンテーションGANとの比較やPix2PixとCycleGANアーキテクチャの実験では、ペアとアンペアのシナリオがテストされた。
地域別GANでは, 地域別, 全身別, 病変別で有意な改善が認められた。
Pix2Pixは精度が高く、高品質な画像合成を実現した。
解剖学的不均一性に対処することにより,全身CT-PET翻訳における最先端の結果が得られる。
この方法論は、CTデータから正確な仮想PETスキャンを可能にし、健康結果を監視し、予測し、最適化するための仮想イメージング表現を作成することで、ヘルスケアのDigital Twinsをサポートする。
関連論文リスト
- Deep Few-view High-resolution Photon-counting Extremity CT at Halved Dose for a Clinical Trial [8.393536317952085]
ニュージーランドの臨床試験において,PCCT画像の半減量と2倍の速度で再現する深層学習に基づくアプローチを提案する。
本稿では,GPUメモリの制限を緩和するパッチベースのボリュームリファインメントネットワーク,合成データを用いたトレーニングネットワーク,およびモデルベースの反復リファインメントを用いて,合成データと実世界のギャップを埋める。
論文 参考訳(メタデータ) (2024-03-19T00:07:48Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Hyper-Connected Transformer Network for Multi-Modality PET-CT
Segmentation [16.999643199612244]
PET-CT画像のコラーニングは, 自動腫瘍セグメンテーションの基本的な要件である。
マルチモダリティPET-CT画像のためのハイパーコネクテッドフュージョンとトランスフォーマネットワーク(TN)を統合した超コネクテッドトランスフォーマネットワークを提案する。
以上の結果から, HCTは既存の方法と比較して, セグメンテーション精度が向上したことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-28T00:03:43Z) - Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Segmentation of Lung Tumor from CT Images using Deep Supervision [0.8733639720576208]
肺がんは世界中のほとんどの国で死因となっている。
本稿では,LOTUSデータセットに2次元離散ウェーブレット変換(DWT)を適用し,肺腫瘍のセグメンテーションにアプローチする。
論文 参考訳(メタデータ) (2021-11-17T17:50:18Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Spatio-Temporal Dual-Stream Neural Network for Sequential Whole-Body PET
Segmentation [10.344707825773252]
連続体PETスキャンをセグメント化する「デュアルストリーム」ニューラルネットワーク(ST-DSNN)を提案する。
我々のST-DSNNは、時間とともに行われたPET画像から画像の特徴を学習し、蓄積する。
その結果,本手法は最新のPET画像分割法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-09T10:15:20Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。