論文の概要: 3D Nephrographic Image Synthesis in CT Urography with the Diffusion Model and Swin Transformer
- arxiv url: http://arxiv.org/abs/2502.19623v1
- Date: Wed, 26 Feb 2025 23:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:58:54.229007
- Title: 3D Nephrographic Image Synthesis in CT Urography with the Diffusion Model and Swin Transformer
- Title(参考訳): 拡散モデルとスイム変圧器を用いたCT尿路画像の3次元ネフロート画像合成
- Authors: Hongkun Yu, Syed Jamal Safdar Gardezi, E. Jason Abel, Daniel Shapiro, Meghan G. Lubner, Joshua Warner, Matthew Smith, Giuseppe Toia, Lu Mao, Pallavi Tiwari, Andrew L. Wentland,
- Abstract要約: 提案手法は,高品質な3次元腎画像の合成を効果的に行う。
画像の品質を損なうことなく、CTUの放射線線量を33.3%削減することができる。
- 参考スコア(独自算出の注目度): 3.8557197729550485
- License:
- Abstract: Purpose: This study aims to develop and validate a method for synthesizing 3D nephrographic phase images in CT urography (CTU) examinations using a diffusion model integrated with a Swin Transformer-based deep learning approach. Materials and Methods: This retrospective study was approved by the local Institutional Review Board. A dataset comprising 327 patients who underwent three-phase CTU (mean $\pm$ SD age, 63 $\pm$ 15 years; 174 males, 153 females) was curated for deep learning model development. The three phases for each patient were aligned with an affine registration algorithm. A custom deep learning model coined dsSNICT (diffusion model with a Swin transformer for synthetic nephrographic phase images in CT) was developed and implemented to synthesize the nephrographic images. Performance was assessed using Peak Signal-to-Noise Ratio (PSNR), Structural Similarity Index (SSIM), Mean Absolute Error (MAE), and Fr\'{e}chet Video Distance (FVD). Qualitative evaluation by two fellowship-trained abdominal radiologists was performed. Results: The synthetic nephrographic images generated by our proposed approach achieved high PSNR (26.3 $\pm$ 4.4 dB), SSIM (0.84 $\pm$ 0.069), MAE (12.74 $\pm$ 5.22 HU), and FVD (1323). Two radiologists provided average scores of 3.5 for real images and 3.4 for synthetic images (P-value = 0.5) on a Likert scale of 1-5, indicating that our synthetic images closely resemble real images. Conclusion: The proposed approach effectively synthesizes high-quality 3D nephrographic phase images. This model can be used to reduce radiation dose in CTU by 33.3\% without compromising image quality, which thereby enhances the safety and diagnostic utility of CT urography.
- Abstract(参考訳): 目的:本研究は,Swin Transformer を用いた深層学習手法と統合した拡散モデルを用いて,CT urography (CTU) 検査における3次元腎画像の合成法を開発し,検証することを目的とする。
資料と方法: この振り返り研究は地方機関審査委員会によって承認された。
3相CTUを施行した327例(平均SD年齢63ドル、男性174名、女性153名)を対象とした。
各患者の3段階はアフィン登録アルゴリズムで一致した。
DsSNICT(CTにおけるネフロート画像合成用スウィントランスフォーマーとの拡散モデル)を用いた独自の深層学習モデルを開発し,ネフロート画像の合成を行った。
また,Pak Signal-to-Noise Ratio (PSNR), Structure similarity Index (SSIM), Mean Absolute Error (MAE), Fr\'{e}chet Video Distance (FVD)を用いて評価した。
2名の腹部X線検査士による質的評価を行った。
結果: 提案手法により生成された合成腎画像は, 高いPSNR (26.3 $\pm$ 4.4 dB), SSIM (0.84 $\pm$ 0.069), MAE (12.74 $\pm$ 5.22 HU), FVD (1323。
2人の放射線学者は、実画像に対して3.5点、合成画像に対して3.4点(P値=0.5点)のスコアを1-5点とし、我々の合成画像が実画像によく似ていることを示した。
結論: 提案手法は高品質な3次元腎画像の合成を効果的に行う。
このモデルは、画像品質を損なうことなく、CTUの放射線線量量を33.3 %削減できるため、CT urographyの安全性と診断の有用性を高めることができる。
関連論文リスト
- ResNCT: A Deep Learning Model for the Synthesis of Nephrographic Phase Images in CT Urography [1.927688129012441]
ResNCTモデルは、非コントラストおよび尿路画像入力から合成ネフロート画像を生成することに成功した。
このモデルは、CTU検査に対する放射線線量33%の減少により、ネフローゼ相の獲得を除去する手段を提供する。
論文 参考訳(メタデータ) (2024-05-07T19:20:32Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer [14.31661366393592]
腫瘍の視認性は、患者の3D解剖が2D平面に投影されるため制限される。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
患者固有の視覚変換器ベースのネットワークを開発し,精度と効率性を示した。
論文 参考訳(メタデータ) (2023-04-21T17:18:21Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - A framework for quantitative analysis of Computed Tomography images of
viral pneumonitis: radiomic features in COVID and non-COVID patients [0.0]
1028個の胸部CT像を肺抽出のために自動的に分離した。
ガウスモデルを用いて, 肺の正常な部位と重症部位を定量的に表す指標(QM)を算出した。
両側肺から第1,第2次放射線学的特徴(RF)を抽出した。
新型コロナウイルスと非ウイルス性肺炎を分類する人工知能ベースの4つのモデルを開発した。
論文 参考訳(メタデータ) (2021-09-28T15:22:24Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Cephalogram Synthesis and Landmark Detection in Dental Cone-Beam CT
Systems [11.242436948609715]
合成脳波画像のコントラストを高めるために,X線フィルムの非線形光学特性を利用したシグモノイド系強度変換を提案する。
低線量目的のために、2つのCBCTプロジェクションから直接2次元脳波を合成するために、画素対画素生成逆数ネットワーク (pix2pixGAN) を提案する。
合成脳波のランドマーク検出には,LeNet-5とResNet50の組み合わせを用いた効率的な自動ランドマーク検出法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T17:06:54Z) - Using a Generative Adversarial Network for CT Normalization and its
Impact on Radiomic Features [3.4548443472506194]
放射線学的特徴は、線量レベルとスライス厚さの違いによる取得の違いに敏感である。
減線量,厚みスライス (2.0mm) 画像を正常線量 (100%) , 薄いスライス (1.0mm) 画像に正規化するために, GAN (3D Generative Adversarial Network) を用いた。
論文 参考訳(メタデータ) (2020-01-22T23:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。