論文の概要: Cross-Attention Multimodal Fusion for Breast Cancer Diagnosis: Integrating Mammography and Clinical Data with Explainability
- arxiv url: http://arxiv.org/abs/2508.16000v1
- Date: Thu, 21 Aug 2025 23:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.205369
- Title: Cross-Attention Multimodal Fusion for Breast Cancer Diagnosis: Integrating Mammography and Clinical Data with Explainability
- Title(参考訳): 乳がん診断におけるクロスアテンション・マルチモーダル・フュージョン : マンモグラフィーと臨床データの統合と説明可能性
- Authors: Muhaisin Tiyumba Nantogmah, Abdul-Barik Alhassan, Salamudeen Alhassan,
- Abstract要約: 現在のコンピュータ支援システムはマンモグラムの特徴しか利用していない。
臨床的特徴は乳腺病変の分類を著しく向上させるか?
説明可能なAIアプローチは、乳がんの診断に使用されるモデルの解釈可能性と信頼性を改善するにはどうすればよいのか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A precise assessment of the risk of breast lesions can greatly lower it and assist physicians in choosing the best course of action. To categorise breast lesions, the majority of current computer-aided systems only use characteristics from mammograms. Although this method is practical, it does not completely utilise clinical reports' valuable information to attain the best results. When compared to utilising mammography alone, will clinical features greatly enhance the categorisation of breast lesions? How may clinical features and mammograms be combined most effectively? In what ways may explainable AI approaches improve the interpretability and reliability of models used to diagnose breast cancer? To answer these basic problems, a comprehensive investigation is desperately needed. In order to integrate mammography and categorical clinical characteristics, this study examines a number of multimodal deep networks grounded on feature concatenation, co-attention, and cross-attention. The model achieved an AUC-ROC of 0.98, accuracy of 0.96, F1-score of 0.94, precision of 0.92, and recall of 0.95 when tested on publicly accessible datasets (TCGA and CBIS-DDSM).
- Abstract(参考訳): 乳腺病変のリスクの正確な評価は、そのリスクを大幅に低下させ、医師が最良の処置を選択するのを手助けする。
乳腺病変を分類するために、現在のコンピュータ支援システムの大半は、マンモグラムの特徴のみを用いている。
本手法は実用的ではあるが,臨床報告の貴重な情報を完全に活用して最良の結果を得ることはできない。
乳房造影単独と比較して,臨床的特徴は乳腺病変の分類を著しく向上させるか?
臨床的特徴とマンモグラフィーはどのように最も効果的に組み合わせられるか?
説明可能なAIアプローチは、乳がんの診断に使用されるモデルの解釈可能性と信頼性を改善するにはどうすればよいのか?
これらの基本的な問題に対処するためには、徹底的な調査が必要である。
本研究は,マンモグラフィーと分類学的臨床的特徴を統合するために,特徴連結,コアテンション,クロスアテンションに基づく多数のマルチモーダルディープネットワークについて検討した。
このモデルはAUC-ROCの0.98、精度0.96、F1スコア0.94、精度0.92、公に利用可能なデータセット(TCGAとCBIS-DDSM)でテストされたときのリコール0.95を達成した。
関連論文リスト
- Prostate Cancer Classification Using Multimodal Feature Fusion and Explainable AI [2.656041527404895]
BERT(テキスト臨床ノート用)とランダムフォレスト(数値実験データ用)を組み合わせた説明可能なAIシステムを提案する。
本研究は,単純かつ解釈可能なBERT+RFパイプラインが臨床的に有意な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-07-28T11:07:17Z) - Adversarially Robust Feature Learning for Breast Cancer Diagnosis [1.9060744600841881]
敵対的なデータは、ディープラーニングアプリケーションの誤動作を引き起こす可能性がある。
本稿では, 乳がん診断の現実的応用のための, 対角的頑健な特徴学習法(ARFL)を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:02:34Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware Prostate Cancer Classification [42.75911994044675]
前立腺MRIの非対位画像翻訳のための新しいアプローチと臨床的に重要なPCaを分類するための不確実性認識トレーニングアプローチを提案する。
提案手法では,無ペアの3.0T多パラメータ前立腺MRIを1.5Tに翻訳し,利用可能なトレーニングデータを増強する。
実験の結果,提案手法は,従来の研究に比べてAUC(Area Under ROC Curve)を20%以上改善することがわかった。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - Deep-Learning Tool for Early Identifying Non-Traumatic Intracranial
Hemorrhage Etiology based on CT Scan [40.51754649947294]
深層学習モデルは、2011年1月から2018年4月までに収集された非外傷性ICHを用いた1868個のNCCTスキャンを用いて開発された。
診断成績は臨床医の成績と比較した。
臨床医は, システム拡張による特定の出血エチオロジーの感度, 特異性, 精度を著しく改善した。
論文 参考訳(メタデータ) (2023-02-02T08:45:17Z) - High-resolution synthesis of high-density breast mammograms: Application
to improved fairness in deep learning based mass detection [48.88813637974911]
深層学習に基づくコンピュータ支援検出システムは乳癌検出において優れた性能を示した。
高密度の乳房は、高密度の組織がマスを覆ったりシミュレートしたりできるため、検出性能が劣っている。
本研究は,高密度乳房における高密度フルフィールドデジタルマンモグラムを用いた質量検出性能の向上を目的とする。
論文 参考訳(メタデータ) (2022-09-20T15:57:12Z) - Improving the diagnosis of breast cancer based on biophysical ultrasound
features utilizing machine learning [0.0]
乳がん検出のための生物物理学的特徴に基づく機械学習手法を提案する。
以上より, 乳腺病変のタイプとサイズは, 分類では98.0%, 操作特性曲線では0.98以上であった。
論文 参考訳(メタデータ) (2022-07-13T23:53:09Z) - Translating automated brain tumour phenotyping to clinical neuroimaging [0.4199844472131921]
我々は、自動腫瘍分割モデルの比較忠実度を定量化するために最先端の手法を用いる。
深層学習セグメンテーションモデルは、データ不足時に腫瘍をうまく特徴づけ、コントラストを使わずに拡張組織を検出できる。
論文 参考訳(メタデータ) (2022-06-13T12:58:54Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Multimodal Breast Lesion Classification Using Cross-Attention Deep
Networks [0.08635315042809139]
ほとんどのコンピュータ支援システムは乳腺病変を分類するためにマンモグラム機能のみに依存している。
本稿では, マンモグラムと分類学的臨床変数を組み合わせるために, 特徴連結, 交差注意, 共同注意に基づく複数のマルチモーダルディープネットワークについて検討する。
論文 参考訳(メタデータ) (2021-08-21T23:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。