論文の概要: Prostate Cancer Classification Using Multimodal Feature Fusion and Explainable AI
- arxiv url: http://arxiv.org/abs/2507.20714v1
- Date: Mon, 28 Jul 2025 11:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.088348
- Title: Prostate Cancer Classification Using Multimodal Feature Fusion and Explainable AI
- Title(参考訳): マルチモーダル特徴融合と説明可能なAIを用いた前立腺癌の分類
- Authors: Asma Sadia Khan, Fariba Tasnia Khan, Tanjim Mahmud, Salman Karim Khan, Rishita Chakma, Nahed Sharmen, Mohammad Shahadat Hossain, Karl Andersson,
- Abstract要約: BERT(テキスト臨床ノート用)とランダムフォレスト(数値実験データ用)を組み合わせた説明可能なAIシステムを提案する。
本研究は,単純かつ解釈可能なBERT+RFパイプラインが臨床的に有意な改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 2.656041527404895
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Prostate cancer, the second most prevalent male malignancy, requires advanced diagnostic tools. We propose an explainable AI system combining BERT (for textual clinical notes) and Random Forest (for numerical lab data) through a novel multimodal fusion strategy, achieving superior classification performance on PLCO-NIH dataset (98% accuracy, 99% AUC). While multimodal fusion is established, our work demonstrates that a simple yet interpretable BERT+RF pipeline delivers clinically significant improvements - particularly for intermediate cancer stages (Class 2/3 recall: 0.900 combined vs 0.824 numerical/0.725 textual). SHAP analysis provides transparent feature importance rankings, while ablation studies prove textual features' complementary value. This accessible approach offers hospitals a balance of high performance (F1=89%), computational efficiency, and clinical interpretability - addressing critical needs in prostate cancer diagnostics.
- Abstract(参考訳): 前立腺癌は2番目に多い男性腫瘍であり、高度な診断ツールを必要とする。
本稿では,BERT(テキスト臨床ノート用)とランダムフォレスト(数値実験データ用)を組み合わせて,PLCO-NIHデータセット(98%の精度,99%のAUC)の分類性能を向上し,新たなマルチモーダル融合戦略により説明可能なAIシステムを提案する。
マルチモーダル核融合が確立されている間、我々の研究は、単純で解釈可能なBERT+RFパイプラインが臨床的に重要な改善をもたらすことを実証している。
SHAP分析は、テキスト特徴の相補的価値を証明する一方で、透過的な特徴重要度ランキングを提供する。
このアクセス可能なアプローチは、病院に高いパフォーマンス(F1=89%)、計算効率、臨床解釈可能性(前立腺がん診断における重要なニーズに対処する)のバランスを与える。
関連論文リスト
- Comparison of ConvNeXt and Vision-Language Models for Breast Density Assessment in Screening Mammography [39.58317527488534]
本研究では,BI-RADSシステムを用いた自動分類のためのマルチモーダル法とCNN法の比較を行った。
ゼロショット分類は、微調整されたConvNeXtモデルがBioMedCLIP線形プローブよりも優れた性能を示した。
これらの結果から, マルチモーダル学習の約束にもかかわらず, エンドツーエンドの微調整を施したCNNモデルの方が, 医用画像の特化に有効であることが示唆された。
論文 参考訳(メタデータ) (2025-06-16T20:14:37Z) - EAGLE: Efficient Alignment of Generalized Latent Embeddings for Multimodal Survival Prediction with Interpretable Attribution Analysis [16.567468717846676]
既存のマルチモーダルアプローチは、単純化された融合戦略、膨大な計算要求、および臨床導入における解釈可能性の重要な障壁の欠如に悩まされている。
本稿では,注意に基づくマルチモーダル融合と包括的帰属分析により,これらの制約に対処する新しいディープラーニングフレームワークであるEagleを紹介する。
Eagleは、高度なAI機能と実用的なヘルスケアデプロイメントのギャップを埋め、マルチモーダルサバイバル予測のためのスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-06-12T03:56:13Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Multi-modal Medical Image Fusion For Non-Small Cell Lung Cancer Classification [7.002657345547741]
非小細胞肺癌(NSCLC)は、世界中のがん死亡の主な原因である。
本稿では, 融合医療画像(CT, PET)と臨床健康記録, ゲノムデータとを合成する, マルチモーダルデータの革新的な統合について紹介する。
NSCLCの検出と分類精度の大幅な向上により,本研究は既存のアプローチを超越している。
論文 参考訳(メタデータ) (2024-09-27T12:59:29Z) - Let it shine: Autofluorescence of Papanicolaou-stain improves AI-based cytological oral cancer detection [3.1850395068284785]
早期に検出された口腔癌は治療可能であるが、後期に致命的になることが多い。
コンピュータ支援法は、費用対効果と正確な細胞学的解析に不可欠である。
本研究は,マルチモーダルイメージングとディープフュージョンを用いた,AIによる口腔癌検出の改善を目的とする。
論文 参考訳(メタデータ) (2024-07-02T01:05:35Z) - Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - BioFusionNet: Deep Learning-Based Survival Risk Stratification in ER+ Breast Cancer Through Multifeature and Multimodal Data Fusion [16.83901927767791]
画像から得られる特徴を遺伝的・臨床的データと融合して全体像を得る深層学習フレームワークであるBioFusionNetを提案する。
本モデルでは, 平均一致率0.77, 曲線0.84の時間依存領域を達成し, 最先端の手法より優れていた。
論文 参考訳(メタデータ) (2024-02-16T14:19:33Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。