論文の概要: MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment
- arxiv url: http://arxiv.org/abs/2401.08527v1
- Date: Tue, 16 Jan 2024 17:45:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 18:49:16.303405
- Title: MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment
- Title(参考訳): mica:マルチレベルイメージ・コンセプタアライメントによる皮膚病変の診断に向けて
- Authors: Yequan Bie, Luyang Luo, Hao Chen
- Abstract要約: 本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
- 参考スコア(独自算出の注目度): 4.861768967055006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box deep learning approaches have showcased significant potential in
the realm of medical image analysis. However, the stringent trustworthiness
requirements intrinsic to the medical field have catalyzed research into the
utilization of Explainable Artificial Intelligence (XAI), with a particular
focus on concept-based methods. Existing concept-based methods predominantly
apply concept annotations from a single perspective (e.g., global level),
neglecting the nuanced semantic relationships between sub-regions and concepts
embedded within medical images. This leads to underutilization of the valuable
medical information and may cause models to fall short in harmoniously
balancing interpretability and performance when employing inherently
interpretable architectures such as Concept Bottlenecks. To mitigate these
shortcomings, we propose a multi-modal explainable disease diagnosis framework
that meticulously aligns medical images and clinical-related concepts
semantically at multiple strata, encompassing the image level, token level, and
concept level. Moreover, our method allows for model intervention and offers
both textual and visual explanations in terms of human-interpretable concepts.
Experimental results on three skin image datasets demonstrate that our method,
while preserving model interpretability, attains high performance and label
efficiency for concept detection and disease diagnosis.
- Abstract(参考訳): ブラックボックスの深層学習アプローチは、医用画像解析の領域において大きな可能性を秘めている。
しかし、医療分野に固有の厳格な信頼性要件は、説明可能な人工知能(XAI)の利用に関する研究を触媒化し、特に概念に基づく手法に焦点をあてている。
既存の概念ベースの手法は、単一の視点(例えばグローバルレベル)から概念アノテーションを主に適用し、サブリージョンと医療画像に埋め込まれた概念の間のニュアンス的な意味関係を無視する。
これにより、貴重な医療情報を過小に活用し、概念ボトルネックのような本質的に解釈可能なアーキテクチャを採用する場合、モデルの解釈可能性と性能の調和が損なわれる可能性がある。
これらの欠点を緩和するため,我々は医療画像と臨床関連概念を,画像レベル,トークンレベル,概念レベルを包含して,複数の階層で意味的に連携させるマルチモーダルな疾患診断フレームワークを提案する。
さらに,本手法はモデル介入を可能にし,人間の解釈可能な概念の観点からテキストと視覚的説明を提供する。
3つのスキン画像データセットを用いた実験の結果, モデル解釈性を維持しつつ, 概念検出と疾患診断において高い性能とラベル効率が得られることがわかった。
関連論文リスト
- Concept Complement Bottleneck Model for Interpretable Medical Image Diagnosis [8.252227380729188]
本稿では,医用画像診断のための補完的ボトルネックモデルを提案する。
そこで本研究では,概念の相違点を抽出し,それぞれの注意チャンネルで概念をスコアリングするために,概念アダプタを利用することを提案する。
本モデルでは,概念検出と疾患診断の課題において,最先端の競争相手よりも優れていた。
論文 参考訳(メタデータ) (2024-10-20T16:52:09Z) - Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Coherent Concept-based Explanations in Medical Image and Its Application
to Skin Lesion Diagnosis [0.0]
既存のメラノーマ皮膚病変診断のための深層学習アプローチはブラックボックスモデルとみなす。
本稿では,概念ベースモデルの解釈可能性を改善するために,本質的に解釈可能なフレームワークを提案する。
本手法は皮膚病変分類のための既存のブラックボックスとコンセプトベースモデルより優れている。
論文 参考訳(メタデータ) (2023-04-10T13:32:04Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。