論文の概要: Are Virtual DES Images a Valid Alternative to the Real Ones?
- arxiv url: http://arxiv.org/abs/2508.15594v1
- Date: Thu, 21 Aug 2025 14:07:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.364214
- Title: Are Virtual DES Images a Valid Alternative to the Real Ones?
- Title(参考訳): バーチャルDES画像はリアル画像の代替物か?
- Authors: Ana C. Perre, Luís A. Alexandre, Luís C. Freire,
- Abstract要約: 本研究では,仮想DES画像がCESM病変分類に与える影響について検討する。
われわれの知る限り、仮想DES画像がCESM病変分類に与える影響を初めて評価した研究である。
- 参考スコア(独自算出の注目度): 1.3049516752695611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrast-enhanced spectral mammography (CESM) is an imaging modality that provides two types of images, commonly known as low-energy (LE) and dual-energy subtracted (DES) images. In many domains, particularly in medicine, the emergence of image-to-image translation techniques has enabled the artificial generation of images using other images as input. Within CESM, applying such techniques to generate DES images from LE images could be highly beneficial, potentially reducing patient exposure to radiation associated with high-energy image acquisition. In this study, we investigated three models for the artificial generation of DES images (virtual DES): a pre-trained U-Net model, a U-Net trained end-to-end model, and a CycleGAN model. We also performed a series of experiments to assess the impact of using virtual DES images on the classification of CESM examinations into malignant and non-malignant categories. To our knowledge, this is the first study to evaluate the impact of virtual DES images on CESM lesion classification. The results demonstrate that the best performance was achieved with the pre-trained U-Net model, yielding an F1 score of 85.59% when using the virtual DES images, compared to 90.35% with the real DES images. This discrepancy likely results from the additional diagnostic information in real DES images, which contributes to a higher classification accuracy. Nevertheless, the potential for virtual DES image generation is considerable and future advancements may narrow this performance gap to a level where exclusive reliance on virtual DES images becomes clinically viable.
- Abstract(参考訳): コントラスト強調分光マンモグラフィ(CESM)は、低エネルギー (LE) と二重エネルギー (DES) の2種類の画像を提供する画像モダリティである。
多くの領域、特に医学において、画像から画像への翻訳技術の出現は、他の画像を入力として、画像の人工的な生成を可能にしている。
CESMでは、LE画像からDES画像を生成するためにこのような技術を適用することは非常に有益であり、高エネルギー画像取得に伴う放射線への患者曝露を減らす可能性がある。
本研究では,DES画像の人工生成のための3つのモデルについて検討した。事前学習されたU-Netモデル,U-Net訓練されたエンドツーエンドモデル,CycleGANモデルである。
また, 仮想DES画像を用いたCESM検査の悪性度と非悪性度との分類に対する影響を評価するために, 一連の実験を行った。
われわれの知る限り、仮想DES画像がCESM病変分類に与える影響を初めて評価した研究である。
その結果、トレーニング済みのU-Netモデルで最高の性能が達成され、仮想DES画像を使用する場合のF1スコアは85.59%となり、実際のDES画像では90.35%であった。
この違いは、実際のDES画像に付加的な診断情報によって生じる可能性が高い。
それでも、仮想DES画像生成の可能性はかなり大きく、将来的な進歩は、このパフォーマンスギャップを、仮想DES画像への排他的依存が臨床的に有効になるレベルまで狭める可能性がある。
関連論文リスト
- Quality Assessment and Distortion-aware Saliency Prediction for AI-Generated Omnidirectional Images [70.49595920462579]
本研究は,AIGODIの品質評価と歪みを考慮したサリエンシ予測問題について検討する。
BLIP-2モデルに基づく共有エンコーダを用いた2つのモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T05:36:04Z) - Bidirectional Brain Image Translation using Transfer Learning from Generic Pre-trained Models [0.0]
医療分野では、ラベル付き医療画像を取得することは労働集約的で費用がかかるため、データの不足に対処することが大きな課題である。
近年の研究では、この問題を克服するためにトランスファーラーニング(transfer learning)が提案されている。
本研究では,MR-CT画像翻訳の課題に対して,転送学習を適用した。
論文 参考訳(メタデータ) (2025-01-21T20:30:15Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Medical Diffusion -- Denoising Diffusion Probabilistic Models for 3D
Medical Image Generation [0.6486409713123691]
拡散確率モデルが高品質な医用画像データを合成可能であることを示す。
本研究は,2人の医療専門家による読影研究を通じて,そのパフォーマンスを定量的に測定する。
自己教師付き事前訓練において合成画像が利用可能であることを示し,データ不足時の乳房分割モデルの性能向上を図った。
論文 参考訳(メタデータ) (2022-11-07T08:37:48Z) - Generation of Artificial CT Images using Patch-based Conditional
Generative Adversarial Networks [0.0]
本稿では,条件付き判別器を用いた生成対向ネットワークを用いた画像生成手法を提案する。
心電図(CT)画像におけるGAN強調医用画像生成の可能性について検討した。
論文 参考訳(メタデータ) (2022-05-19T20:29:25Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。