論文の概要: A Deep Learning Approach for Virtual Contrast Enhancement in Contrast
Enhanced Spectral Mammography
- arxiv url: http://arxiv.org/abs/2308.00471v1
- Date: Tue, 1 Aug 2023 11:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:22:21.543828
- Title: A Deep Learning Approach for Virtual Contrast Enhancement in Contrast
Enhanced Spectral Mammography
- Title(参考訳): コントラスト強調スペクトルマンモグラフィにおける仮想コントラスト強調のための深層学習法
- Authors: Aurora Rofena, Valerio Guarrasi, Marina Sarli, Claudia Lucia Piccolo,
Matteo Sammarra, Bruno Beomonte Zobel, Paolo Soda
- Abstract要約: 本研究ではコントラスト強調分光マンモグラフィーにおける仮想コントラスト強調のための深部生成モデルを提案する。
我々のディープネットワークは、オートエンコーダと、Pix2PixとCycleGANという2つのジェネレーティブ・アドバイサル・ネットワークから構成されており、低エネルギー画像のみから合成組換え画像を生成する。
- 参考スコア(独自算出の注目度): 1.1129469448121927
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Contrast Enhanced Spectral Mammography (CESM) is a dual-energy mammographic
imaging technique that first needs intravenously administration of an iodinated
contrast medium; then, it collects bot a low-energy image, comparable to
standard mammography, and a high-energy image. The two scans are then combined
to get a recombined image showing contrast enhancement. Despite CESM diagnostic
advantages for breast cancer diagnosis, the use of contrast medium can cause
side effects, and CESM also beams patients with a higher radiation dose
compared to standard mammography. To address these limitations this work
proposes to use deep generative models for virtual contrast enhancement on
CESM, aiming to make the CESM contrast-free as well as to reduce the radiation
dose. Our deep networks, consisting of an autoencoder and two Generative
Adversarial Networks, the Pix2Pix, and the CycleGAN, generate synthetic
recombined images solely from low-energy images. We perform an extensive
quantitative and qualitative analysis of the model's performance, also
exploiting radiologists' assessments, on a novel CESM dataset that includes
1138 images that, as a further contribution of this work, we make publicly
available. The results show that CycleGAN is the most promising deep network to
generate synthetic recombined images, highlighting the potential of artificial
intelligence techniques for virtual contrast enhancement in this field.
- Abstract(参考訳): コントラスト強調スペクトルマンモグラフィ(cesm)は、まずヨウ素化造影剤の静脈内投与を必要とし、その後、標準マンモグラフィに匹敵する低エネルギー画像と高エネルギー画像のボットを収集する二重エネルギーマンモグラフィ技術である。
2つのスキャンが組み合わされ、コントラスト強調を示す再結合画像が得られる。
乳がん診断におけるcesm診断の利点にもかかわらず、造影剤の使用は副作用を引き起こす可能性があり、cesmは標準のマンモグラフィよりも高い放射線線量を持つ患者を照射する。
これらの制限に対処するため、この研究は、CESMのコントラスト強化のための深層生成モデルを使用することを提案し、CESMのコントラストフリー化と放射線線量削減を目指している。
我々のディープネットワークは、オートエンコーダと、Pix2PixとCycleGANという2つのジェネレーティブ・アドバイサル・ネットワークから構成されており、低エネルギー画像のみから合成組換え画像を生成する。
我々は,この研究のさらなる貢献として,1138枚の画像を含む新しいCESMデータセットを用いて,このモデルの性能を定量的かつ定性的に分析し,また,放射線学者の評価も活用する。
その結果、CycleGANは合成組換え画像を生成する最も有望なディープネットワークであり、この分野における仮想コントラスト強化のための人工知能技術の可能性を強調した。
関連論文リスト
- A Time-Intensity Aware Pipeline for Generating Late-Stage Breast DCE-MRI using Generative Adversarial Models [0.3499870393443268]
組織中のコントラスト剤 (CA) の生物学的挙動を利用した新規な損失関数を提案し, 画素アテンションに基づく生成モデルを最適化した。
従来の正規化法や標準化法とは異なり、複数のタイムスタンプで画像列間のコントラスト拡張パターンを維持する新しい正規化手法を開発した。
論文 参考訳(メタデータ) (2024-09-03T04:31:49Z) - CAVM: Conditional Autoregressive Vision Model for Contrast-Enhanced Brain Tumor MRI Synthesis [3.3966430276631208]
条件付き自己回帰視覚モデルはコントラスト強調脳腫瘍MRIの合成を改善する。
深層学習法は、非コントラスト画像から仮想コントラスト強調MRIスキャンを合成するために応用されている。
自然言語処理における段階的用量増加とChain-of-Thoughtアプローチの類似性から着想を得たCAVMは、自己回帰戦略を使用する。
論文 参考訳(メタデータ) (2024-06-23T10:50:22Z) - Towards Learning Contrast Kinetics with Multi-Condition Latent Diffusion Models [2.8981737432963506]
DCE-MRI時間系列の時間条件画像合成が可能な潜時拡散モデルを提案する。
以上の結果から,本手法が現実的な多列性脂肪飽和乳房DCE-MRIを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-20T18:01:57Z) - Gadolinium dose reduction for brain MRI using conditional deep learning [66.99830668082234]
これらの手法の主な課題は、コントラスト強調の正確な予測と現実的な画像の合成である。
コントラスト前の画像対とコントラスト後の画像対のサブトラクション画像に符号化されたコントラスト信号を利用することで、両課題に対処する。
各種スキャナー,フィールド強度,コントラストエージェントを用いた合成および実データに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-06T08:35:29Z) - Synthesis of Contrast-Enhanced Breast MRI Using Multi-b-Value DWI-based
Hierarchical Fusion Network with Attention Mechanism [15.453470023481932]
造影MRI(CE-MRI)は腫瘍と浸潤した健全な組織との鑑別に優れる。
CE-MRIを得るためにガドリニウムベースの造影剤(GBCA)を使用することは、ネフローゼ性全身線維症と関連し、脳内での生体蓄積を引き起こす可能性がある。
造影剤の使用を減らすため,拡散強調画像(DWI)が重要画像技術として出現している。
論文 参考訳(メタデータ) (2023-07-03T09:46:12Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。