論文の概要: Augmented Intelligence for Multimodal Virtual Biopsy in Breast Cancer Using Generative Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2501.19176v1
- Date: Fri, 31 Jan 2025 14:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:02:38.408377
- Title: Augmented Intelligence for Multimodal Virtual Biopsy in Breast Cancer Using Generative Artificial Intelligence
- Title(参考訳): 再生人工知能を用いた乳がんにおけるマルチモーダル仮想生検のための知能増強
- Authors: Aurora Rofena, Claudia Lucia Piccolo, Bruno Beomonte Zobel, Paolo Soda, Valerio Guarrasi,
- Abstract要約: Full-Field Digital Mammography (FFDM) は乳がん検診における主要な画像モダリティである。
第2レベルのイメージング技術であるCESMは、腫瘍検出の精度を向上する。
CESMは通常、特定の症例に予約されており、多くの患者はFFDMのみに頼っている。
仮想生検のためのマルチモーダル・マルチビュー深層学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.8714814768600079
- License:
- Abstract: Full-Field Digital Mammography (FFDM) is the primary imaging modality for routine breast cancer screening; however, its effectiveness is limited in patients with dense breast tissue or fibrocystic conditions. Contrast-Enhanced Spectral Mammography (CESM), a second-level imaging technique, offers enhanced accuracy in tumor detection. Nonetheless, its application is restricted due to higher radiation exposure, the use of contrast agents, and limited accessibility. As a result, CESM is typically reserved for select cases, leaving many patients to rely solely on FFDM despite the superior diagnostic performance of CESM. While biopsy remains the gold standard for definitive diagnosis, it is an invasive procedure that can cause discomfort for patients. We introduce a multimodal, multi-view deep learning approach for virtual biopsy, integrating FFDM and CESM modalities in craniocaudal and mediolateral oblique views to classify lesions as malignant or benign. To address the challenge of missing CESM data, we leverage generative artificial intelligence to impute CESM images from FFDM scans. Experimental results demonstrate that incorporating the CESM modality is crucial to enhance the performance of virtual biopsy. When real CESM data is missing, synthetic CESM images proved effective, outperforming the use of FFDM alone, particularly in multimodal configurations that combine FFDM and CESM modalities. The proposed approach has the potential to improve diagnostic workflows, providing clinicians with augmented intelligence tools to improve diagnostic accuracy and patient care. Additionally, as a contribution to the research community, we publicly release the dataset used in our experiments, facilitating further advancements in this field.
- Abstract(参考訳): フルフィルド・デジタル・マンモグラフィー(FFDM)は乳がん検診における主要な画像モダリティである。
第2レベルのイメージング技術であるContrast-Enhanced Spectral Mammography (CESM)は、腫瘍検出の精度を向上する。
それでも、その用途は高い放射線曝露、コントラスト剤の使用、アクセシビリティの制限により制限されている。
その結果、CESMは通常、特定の症例に予約されており、多くの患者は、CESMの診断性能が優れているにもかかわらず、FFDMのみに依存している。
生検は確定診断のための金の基準であり続けているが、これは患者の不快感を引き起こす侵襲的な処置である。
頭蓋側斜視と側方斜視にFFDMとCESMのモダリティを統合し,病変を悪性または良性と分類する多モード・多視点深層学習手法を提案する。
CESMデータの欠落に対処するために、生成人工知能を活用してFFDMスキャンからCESM画像をインプットする。
実験結果から, 仮想生検の性能向上には, CESMモダリティの導入が不可欠であることが示唆された。
実際のCESMデータが欠落すると、合成CESM画像はFFDMのみの使用、特にFFDMとCESMのモダリティを組み合わせたマルチモーダル構成よりも効果的であることが判明した。
提案手法は、診断ワークフローを改善する可能性があり、臨床医に診断精度と患者のケアを改善するための拡張現実ツールを提供する。
さらに、研究コミュニティへの貢献として、実験で使用されるデータセットを公開し、この分野のさらなる進歩を促進する。
関連論文リスト
- Cross-modality image synthesis from TOF-MRA to CTA using diffusion-based models [36.136619420474766]
Computed Tomography Angiography (CTA) と Time-of-Flight Magnetic Resonance Angiography (TOF-MRA) は2つの一般的な非侵襲的血管造影技術である。
そこで本研究では,TOF-MRA入力から合成CTA画像を生成するために,拡散に基づく画像から画像への変換モデルを提案する。
論文 参考訳(メタデータ) (2024-09-16T08:43:37Z) - MMFusion: Multi-modality Diffusion Model for Lymph Node Metastasis Diagnosis in Esophageal Cancer [13.74067035373274]
CT画像に基づくリンパ節転移診断のためのマルチモーダルな不均一グラフに基づく条件付き特徴誘導拡散モデルを提案する。
本稿では, 悪性腫瘍とリンパ節像の関連性, 優先性を明らかにすることを目的として, マスク付き関係表現学習戦略を提案する。
論文 参考訳(メタデータ) (2024-05-15T17:52:00Z) - Optimizing Synthetic Correlated Diffusion Imaging for Breast Cancer Tumour Delineation [71.91773485443125]
CDI$s$ - 最適化されたモダリティにより最高のAUCが達成され、金標準のモダリティが0.0044より優れていることを示す。
特に、最適化されたCDI$s$モダリティは、最適化されていないCDI$s$値よりも0.02以上のAUC値を達成する。
論文 参考訳(メタデータ) (2024-05-13T16:07:58Z) - Super-resolution of biomedical volumes with 2D supervision [84.5255884646906]
超解像のための仮設スライス拡散は、生物学的標本のすべての空間次元にわたるデータ生成分布の固有同値性を利用する。
我々は,高解像度2次元画像の高速取得を特徴とするSliceRの組織学的刺激(SRH)への応用に着目する。
論文 参考訳(メタデータ) (2024-04-15T02:41:55Z) - Intelligent Breast Cancer Diagnosis with Heuristic-assisted
Trans-Res-U-Net and Multiscale DenseNet using Mammogram Images [0.0]
乳癌(BC)は、女性のがん関連死亡率に大きく寄与する。
悪性の腫瘤を正確に識別することは 依然として困難です
マンモグラフィ画像を用いたBCGスクリーニングのための新しい深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-30T10:22:14Z) - Synthesis of Contrast-Enhanced Breast MRI Using Multi-b-Value DWI-based
Hierarchical Fusion Network with Attention Mechanism [15.453470023481932]
造影MRI(CE-MRI)は腫瘍と浸潤した健全な組織との鑑別に優れる。
CE-MRIを得るためにガドリニウムベースの造影剤(GBCA)を使用することは、ネフローゼ性全身線維症と関連し、脳内での生体蓄積を引き起こす可能性がある。
造影剤の使用を減らすため,拡散強調画像(DWI)が重要画像技術として出現している。
論文 参考訳(メタデータ) (2023-07-03T09:46:12Z) - Artificial-intelligence-based molecular classification of diffuse
gliomas using rapid, label-free optical imaging [59.79875531898648]
DeepGliomaは人工知能に基づく診断スクリーニングシステムである。
ディープグリオーマは、世界保健機関が成人型びまん性グリオーマ分類を定義するために使用する分子変化を予測することができる。
論文 参考訳(メタデータ) (2023-03-23T18:50:18Z) - Multi-Scale Hybrid Vision Transformer for Learning Gastric Histology:
AI-Based Decision Support System for Gastric Cancer Treatment [50.89811515036067]
胃内視鏡検査は、早期に適切な胃癌(GC)治療を判定し、GC関連死亡率を低下させる有効な方法である。
本稿では,一般のGC治療指導と直接一致する5つのGC病理のサブ分類を可能にする実用的なAIシステムを提案する。
論文 参考訳(メタデータ) (2022-02-17T08:33:52Z) - RCA-IUnet: A residual cross-spatial attention guided inception U-Net
model for tumor segmentation in breast ultrasound imaging [0.6091702876917281]
本稿では,腫瘍セグメンテーションのトレーニングパラメータが最小限に抑えられたRCA-IUnetモデルについて紹介する。
RCA-IUnetモデルは、U-Netトポロジに従い、奥行きの深い分離可能な畳み込みとハイブリッドプール層を持つ。
無関係な特徴を抑え、対象構造に焦点を合わせるために、空間横断型アテンションフィルタが加えられる。
論文 参考訳(メタデータ) (2021-08-05T10:35:06Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。