論文の概要: Lesion-Aware Generative Artificial Intelligence for Virtual Contrast-Enhanced Mammography in Breast Cancer
- arxiv url: http://arxiv.org/abs/2505.03018v1
- Date: Mon, 05 May 2025 20:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.124629
- Title: Lesion-Aware Generative Artificial Intelligence for Virtual Contrast-Enhanced Mammography in Breast Cancer
- Title(参考訳): 乳がんにおける仮想造影乳房造影のための病変認識人工知能
- Authors: Aurora Rofena, Arianna Manchia, Claudia Lucia Piccolo, Bruno Beomonte Zobel, Paolo Soda, Valerio Guarrasi,
- Abstract要約: Contrast-Enhanced Spectral Mammography (CESM) は、ヨウ素化コントラスト剤の投与により病変の視認性を向上させる。
CESMは、標準的なマンモグラフィーと比較して診断精度が優れているが、その使用には放射線照射と潜在的な副作用が伴う。
本稿では,CESMにおける仮想コントラスト拡張のための生成的ディープラーニングフレームワークであるSeg-CycleGANを提案する。
- 参考スコア(独自算出の注目度): 0.8224504196003954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrast-Enhanced Spectral Mammography (CESM) is a dual-energy mammographic technique that improves lesion visibility through the administration of an iodinated contrast agent. It acquires both a low-energy image, comparable to standard mammography, and a high-energy image, which are then combined to produce a dual-energy subtracted image highlighting lesion contrast enhancement. While CESM offers superior diagnostic accuracy compared to standard mammography, its use entails higher radiation exposure and potential side effects associated with the contrast medium. To address these limitations, we propose Seg-CycleGAN, a generative deep learning framework for Virtual Contrast Enhancement in CESM. The model synthesizes high-fidelity dual-energy subtracted images from low-energy images, leveraging lesion segmentation maps to guide the generative process and improve lesion reconstruction. Building upon the standard CycleGAN architecture, Seg-CycleGAN introduces localized loss terms focused on lesion areas, enhancing the synthesis of diagnostically relevant regions. Experiments on the CESM@UCBM dataset demonstrate that Seg-CycleGAN outperforms the baseline in terms of PSNR and SSIM, while maintaining competitive MSE and VIF. Qualitative evaluations further confirm improved lesion fidelity in the generated images. These results suggest that segmentation-aware generative models offer a viable pathway toward contrast-free CESM alternatives.
- Abstract(参考訳): Contrast-Enhanced Spectral Mammography (CESM) は、ヨウ素化コントラスト剤の投与により病変の可視性を改善する二重エネルギーマンモグラフィー技術である。
標準マンモグラフィーに匹敵する低エネルギー画像と高エネルギー画像の両方を取得し、二重エネルギー減算画像を合成して病変造影強調画像を生成する。
CESMは、標準的なマンモグラフィーと比較して診断精度が優れているが、その使用には、コントラスト媒体に関連する放射線暴露と潜在的な副作用が伴う。
これらの制約に対処するため,CESMにおける仮想コントラスト強化のための生成的ディープラーニングフレームワークであるSeg-CycleGANを提案する。
このモデルは、低エネルギー画像から高忠実度二重エネルギー減算画像を合成し、病変分割マップを利用して生成過程をガイドし、病変再構成を改善する。
標準のCycleGANアーキテクチャに基づいて、Seg-CycleGANは病変領域に焦点を当てた局所的な損失項を導入し、診断関連領域の合成を強化した。
CESM@UCBMデータセットの実験では、Seg-CycleGANはPSNRとSSIMの点でベースラインを上回っ、競合するMSEとVIFを維持している。
定性的評価により、生成された画像の病変の忠実度がさらに向上したことが確認された。
これらの結果から, セグメンテーションを意識した生成モデルは, コントラストフリーのCESM代替品への有効な経路となることが示唆された。
関連論文リスト
- Synthesizing Late-Stage Contrast Enhancement in Breast MRI: A Comprehensive Pipeline Leveraging Temporal Contrast Enhancement Dynamics [0.3499870393443268]
本研究では,後期DCE-MRI画像の初期段階データから合成するためのパイプラインを提案する。
提案手法では, コントラストエージェントの時間的挙動を利用して生成モデルの訓練を指導する, 新たな損失関数である時間強度損失(TI-loss)を導入する。
アノテーション付き領域における拡張パターンを検証するContrast Agent Pattern Score(mathcalCP_s$)と、実際の拡張と生成された拡張の違いを測定するAverage difference in Enhancement(mathcalED$)の2つの指標が画像品質を評価するために提案されている。
論文 参考訳(メタデータ) (2024-09-03T04:31:49Z) - Towards Learning Contrast Kinetics with Multi-Condition Latent Diffusion Models [2.8981737432963506]
DCE-MRI時間系列の時間条件画像合成が可能な潜時拡散モデルを提案する。
以上の結果から,本手法が現実的な多列性脂肪飽和乳房DCE-MRIを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-20T18:01:57Z) - Gadolinium dose reduction for brain MRI using conditional deep learning [66.99830668082234]
これらの手法の主な課題は、コントラスト強調の正確な予測と現実的な画像の合成である。
コントラスト前の画像対とコントラスト後の画像対のサブトラクション画像に符号化されたコントラスト信号を利用することで、両課題に対処する。
各種スキャナー,フィールド強度,コントラストエージェントを用いた合成および実データに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-06T08:35:29Z) - A Deep Learning Approach for Virtual Contrast Enhancement in Contrast
Enhanced Spectral Mammography [1.1129469448121927]
本研究ではコントラスト強調分光マンモグラフィーにおける仮想コントラスト強調のための深部生成モデルを提案する。
我々のディープネットワークは、オートエンコーダと、Pix2PixとCycleGANという2つのジェネレーティブ・アドバイサル・ネットワークから構成されており、低エネルギー画像のみから合成組換え画像を生成する。
論文 参考訳(メタデータ) (2023-08-01T11:49:05Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。