論文の概要: Explainable Melanoma Diagnosis with Contrastive Learning and LLM-based Report Generation
- arxiv url: http://arxiv.org/abs/2512.06105v1
- Date: Fri, 05 Dec 2025 19:19:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.19017
- Title: Explainable Melanoma Diagnosis with Contrastive Learning and LLM-based Report Generation
- Title(参考訳): コントラスト学習とLCMによるレポート生成を併用した説明可能なメラノーマ診断
- Authors: Junwen Zheng, Xinran Xu, Li Rong Wang, Chang Cai, Lucinda Siyun Tan, Dingyuan Wang, Hong Liang Tey, Xiuyi Fan,
- Abstract要約: 悪性黒色腫(CEFM)のクロスモーダル説明フレームワーク
解釈可能性を達成するための中核的なメカニズムとして、対照的な学習を使う。
公開データセットの実験では92.79%の精度でAUCは0.961である。
- 参考スコア(独自算出の注目度): 6.12668702512286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has demonstrated expert-level performance in melanoma classification, positioning it as a powerful tool in clinical dermatology. However, model opacity and the lack of interpretability remain critical barriers to clinical adoption, as clinicians often struggle to trust the decision-making processes of black-box models. To address this gap, we present a Cross-modal Explainable Framework for Melanoma (CEFM) that leverages contrastive learning as the core mechanism for achieving interpretability. Specifically, CEFM maps clinical criteria for melanoma diagnosis-namely Asymmetry, Border, and Color (ABC)-into the Vision Transformer embedding space using dual projection heads, thereby aligning clinical semantics with visual features. The aligned representations are subsequently translated into structured textual explanations via natural language generation, creating a transparent link between raw image data and clinical interpretation. Experiments on public datasets demonstrate 92.79% accuracy and an AUC of 0.961, along with significant improvements across multiple interpretability metrics. Qualitative analyses further show that the spatial arrangement of the learned embeddings aligns with clinicians' application of the ABC rule, effectively bridging the gap between high-performance classification and clinical trust.
- Abstract(参考訳): 深層学習はメラノーマ分類において専門家レベルのパフォーマンスを示しており、臨床皮膚学において強力なツールとして位置づけられている。
しかしながら、ブラックボックスモデルの意思決定プロセスの信頼に苦しむ臨床医たちにとって、モデル不透明感と解釈可能性の欠如は、臨床導入にとって重要な障壁である。
このギャップに対処するために、コントラスト学習を解釈可能性を実現するためのコアメカニズムとして活用するクロスモーダル・Explainable Framework for Melanoma (CEFM)を提案する。
具体的には、CEFMは、2重投射頭を用いたビジョントランスフォーマー埋め込み空間にメラノーマ診断のための臨床基準、すなわち非対称性、境界色(ABC)をマッピングし、臨床意味を視覚的特徴と整合させる。
その後、アライメントされた表現は、自然言語生成を介して構造化されたテキスト説明に変換され、生画像データと臨床解釈の間に透明なリンクが作られる。
公開データセットの実験では、92.79%の精度と0.961のAUCと、複数の解釈可能性指標の大幅な改善が示されている。
さらに質的な分析により,学習した埋め込みの空間的配置が臨床医のABC規則の適用と一致し,高性能分類と臨床信頼のギャップを効果的に埋めることを示した。
関連論文リスト
- Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - Latent Space Analysis for Melanoma Prevention [5.441932327359051]
メラノーマは重要な健康リスクであり、早期に解釈可能な診断ツールの必要性を強調している。
この研究は、分類を超えた新しいアプローチを導入し、解釈可能なリスクモデリングを可能にした。
提案手法は, 病変間の意味的関係を捉える構造的潜在空間を学習し, 形態的差異の連続的評価を可能にする。
論文 参考訳(メタデータ) (2025-06-23T08:49:57Z) - MedGrad E-CLIP: Enhancing Trust and Transparency in AI-Driven Skin Lesion Diagnosis [2.9540164442363976]
この研究は、異なる皮膚病変データセットに基づいて訓練されたCLIP(Contrastive Language- Image Pretraining)モデルを用いて、視覚的特徴と診断基準項の間の有意義な関係を捉える。
皮膚病変などの複雑な医用画像に重み付けされたエントロピー機構を組み込むことにより,勾配に基づくE-CLIP上に構築するMedGrad E-CLIP法を提案する。
画像の異なる特徴が診断基準とどのように関連しているかを視覚的に説明することにより、医用画像解析における高度な視覚言語モデルの可能性を示す。
論文 参考訳(メタデータ) (2025-01-12T17:50:47Z) - Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - ContrastDiagnosis: Enhancing Interpretability in Lung Nodule Diagnosis
Using Contrastive Learning [23.541034347602935]
臨床医のブラックボックスモデルに対する不信は、AI製品の臨床展開を妨げている。
ContrastDiagnosis(ContrastDiagnosis)を提案する。
AUCは0.977で高い診断精度を達成し、高い透明性と説明可能性を維持した。
論文 参考訳(メタデータ) (2024-03-08T13:00:52Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。