論文の概要: AortaDiff: A Unified Multitask Diffusion Framework For Contrast-Free AAA Imaging
- arxiv url: http://arxiv.org/abs/2510.01498v1
- Date: Wed, 01 Oct 2025 22:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.891603
- Title: AortaDiff: A Unified Multitask Diffusion Framework For Contrast-Free AAA Imaging
- Title(参考訳): AortaDiff:コントラストフリーAAAイメージングのための統合マルチタスク拡散フレームワーク
- Authors: Yuxuan Ou, Ning Bi, Jiazhen Pan, Jiancheng Yang, Boliang Yu, Usama Zidan, Regent Lee, Vicente Grau,
- Abstract要約: 非コントラストCTスキャンから合成CECT画像を生成する統合ディープラーニングフレームワークを提案する。
本研究では,条件拡散モデル(CDM)とマルチタスク学習を統合し,画像合成と解剖学的セグメンテーションのエンドツーエンド共同最適化を実現する。
- 参考スコア(独自算出の注目度): 7.769952833857425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While contrast-enhanced CT (CECT) is standard for assessing abdominal aortic aneurysms (AAA), the required iodinated contrast agents pose significant risks, including nephrotoxicity, patient allergies, and environmental harm. To reduce contrast agent use, recent deep learning methods have focused on generating synthetic CECT from non-contrast CT (NCCT) scans. However, most adopt a multi-stage pipeline that first generates images and then performs segmentation, which leads to error accumulation and fails to leverage shared semantic and anatomical structures. To address this, we propose a unified deep learning framework that generates synthetic CECT images from NCCT scans while simultaneously segmenting the aortic lumen and thrombus. Our approach integrates conditional diffusion models (CDM) with multi-task learning, enabling end-to-end joint optimization of image synthesis and anatomical segmentation. Unlike previous multitask diffusion models, our approach requires no initial predictions (e.g., a coarse segmentation mask), shares both encoder and decoder parameters across tasks, and employs a semi-supervised training strategy to learn from scans with missing segmentation labels, a common constraint in real-world clinical data. We evaluated our method on a cohort of 264 patients, where it consistently outperformed state-of-the-art single-task and multi-stage models. For image synthesis, our model achieved a PSNR of 25.61 dB, compared to 23.80 dB from a single-task CDM. For anatomical segmentation, it improved the lumen Dice score to 0.89 from 0.87 and the challenging thrombus Dice score to 0.53 from 0.48 (nnU-Net). These segmentation enhancements led to more accurate clinical measurements, reducing the lumen diameter MAE to 4.19 mm from 5.78 mm and the thrombus area error to 33.85% from 41.45% when compared to nnU-Net. Code is available at https://github.com/yuxuanou623/AortaDiff.git.
- Abstract(参考訳): 造影CT(CECT)は腹部大動脈瘤 (AAA) を評価するのに標準であるが, 必要なヨウ素化造影剤は腎毒性, 患者アレルギー, 環境被害などの重大なリスクをもたらす。
造影剤の使用を減らすため,最近のディープラーニング手法は,非造影CT(NCCT)スキャンから合成CECTを生成することに重点を置いている。
しかし、ほとんどの場合、まずイメージを生成し、次にセグメンテーションを実行するマルチステージパイプラインを採用しており、エラーの蓄積を引き起こし、共有セマンティクスと解剖学的構造を活用することができない。
そこで本研究では,NCCTスキャンから合成CECT画像を生成するための統合ディープラーニングフレームワークを提案する。
本研究では,条件拡散モデル(CDM)とマルチタスク学習を統合し,画像合成と解剖学的セグメンテーションのエンドツーエンド共同最適化を実現する。
従来のマルチタスク拡散モデルとは異なり,本手法では初期予測(例えば粗いセグメンテーションマスク)は必要とせず,タスク間でエンコーダパラメータとデコーダパラメータを共用する。
264例のコホートを用いて本手法の評価を行い, 現状の単一タスクモデルと多段階モデルとを連続的に比較した。
画像合成では, シングルタスクCDMのPSNRは25.61dBであったのに対し, 23.80dBであった。
解剖学的セグメンテーションでは、ルーメンDiceスコアを0.87から0.89に、難易度Diceスコアを0.48から0.53に改善した(nnU-Net)。
これらのセグメンテーションの強化により、より正確な臨床測定が行われ、腔径のMAEは5.78mmから4.19mmに減少し、トロンバス面積の誤差は41.45%から33.85%に低下した。
コードはhttps://github.com/yuxuanou623/AortaDiff.gitで入手できる。
関連論文リスト
- A Contrast-Agnostic Method for Ultra-High Resolution Claustrum Segmentation [1.9599814057105118]
超高分解能(0.35mm等方性)におけるクラスラム分割のコントラストおよび分解能に依存しない手法を提案する。
この手法はSynthSegセグメンテーションフレームワークに基づいており、合成トレーニング強度画像を利用して優れた一般化を実現する。
我々は18個の超高分解能MRIスキャンから得られたクラスラム手動ラベルを用いて,自動クラスラムセグメンテーションのためのディープラーニングネットワークを訓練した。
論文 参考訳(メタデータ) (2024-11-23T00:03:40Z) - Improved 3D Whole Heart Geometry from Sparse CMR Slices [3.701571763780745]
心臓磁気共鳴法(CMR)とCT法(CT)は、心臓血管疾患の患者を診断するための2つの一般的な非侵襲的画像診断法である。
CMRは通常、複数のスパース2Dスライスを取得し、スライス間には避けられない呼吸運動アーチファクトを持ち、CTは等方性密度データを取得するが、電離放射線を使用する。
スライスシフトアルゴリズム(SSA)、空間変換器ネットワーク(STN)、ラベル変換器ネットワーク(LTN)の組み合わせを検討する。
論文 参考訳(メタデータ) (2024-08-14T13:03:48Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - CT-based brain ventricle segmentation via diffusion Schrödinger Bridge without target domain ground truths [0.9720086191214947]
クリニカルCTスキャンによる高効率かつ正確な脳室分画は、腹腔鏡下手術のような緊急手術には不可欠である。
我々は,CTセグメント化の真偽を必要とせず,新しい不確実性に留意した心室分画法を導入する。
提案手法では拡散型Schr"odinger Bridgeと残像U-Netを併用し,画像診断とMRI検査を併用した。
論文 参考訳(メタデータ) (2024-05-28T15:17:58Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。