論文の概要: ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions
- arxiv url: http://arxiv.org/abs/2201.01249v1
- Date: Tue, 4 Jan 2022 17:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:35:43.872549
- Title: ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions
- Title(参考訳): ExAID:皮膚病変のコンピュータ診断のためのマルチモーダル説明フレームワーク
- Authors: Adriano Lucieri and Muhammad Naseer Bajwa and Stephan Alexander Braun
and Muhammad Imran Malik and Andreas Dengel and Sheraz Ahmed
- Abstract要約: ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
- 参考スコア(独自算出の注目度): 4.886872847478552
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One principal impediment in the successful deployment of AI-based
Computer-Aided Diagnosis (CAD) systems in clinical workflows is their lack of
transparent decision making. Although commonly used eXplainable AI methods
provide some insight into opaque algorithms, such explanations are usually
convoluted and not readily comprehensible except by highly trained experts. The
explanation of decisions regarding the malignancy of skin lesions from
dermoscopic images demands particular clarity, as the underlying medical
problem definition is itself ambiguous. This work presents ExAID (Explainable
AI for Dermatology), a novel framework for biomedical image analysis, providing
multi-modal concept-based explanations consisting of easy-to-understand textual
explanations supplemented by visual maps justifying the predictions. ExAID
relies on Concept Activation Vectors to map human concepts to those learnt by
arbitrary Deep Learning models in latent space, and Concept Localization Maps
to highlight concepts in the input space. This identification of relevant
concepts is then used to construct fine-grained textual explanations
supplemented by concept-wise location information to provide comprehensive and
coherent multi-modal explanations. All information is comprehensively presented
in a diagnostic interface for use in clinical routines. An educational mode
provides dataset-level explanation statistics and tools for data and model
exploration to aid medical research and education. Through rigorous
quantitative and qualitative evaluation of ExAID, we show the utility of
multi-modal explanations for CAD-assisted scenarios even in case of wrong
predictions. We believe that ExAID will provide dermatologists an effective
screening tool that they both understand and trust. Moreover, it will be the
basis for similar applications in other biomedical imaging fields.
- Abstract(参考訳): AIベースのコンピュータ支援診断(CAD)システムの臨床ワークフローへの展開を成功させる上での障害のひとつは、透明な意思決定の欠如である。
一般的に使用されるeXplainable AIメソッドは、不透明なアルゴリズムに関する洞察を提供するが、そのような説明は通常、高度に訓練された専門家以外は容易に理解できない。
皮膚鏡像からの皮膚病変の悪性度に関する決定の解説は、基礎疾患の定義自体が曖昧であるため、特定の明快さを必要とする。
本研究は,バイオメディカル画像解析のための新しいフレームワークであるExAID(Explainable AI for Dermatology)を提示する。
ExAIDは概念活性化ベクトル(Concept Activation Vectors)を利用して、潜在空間における任意のディープラーニングモデルによって学習された概念に人間の概念をマッピングする。
関連概念の同定は、概念的位置情報によって補足されたきめ細かいテキストの説明を構築するために使用され、包括的で一貫性のあるマルチモーダルな説明を提供する。
すべての情報は、臨床ルーチンで使用する診断インターフェースで包括的に提示される。
教育モードは、医学研究と教育を支援するデータとモデル探索のためのデータセットレベルの説明統計とツールを提供する。
ExAIDの厳密な量的・質的な評価を通じて、誤った予測であってもCAD支援シナリオに対するマルチモーダルな説明の有用性を示す。
exaidは皮膚科医に、彼らが理解し信頼する効果的なスクリーニングツールを提供すると信じています。
さらに、他のバイオメディカルイメージングの分野でも同様の応用の基礎となる。
関連論文リスト
- Explaining Chest X-ray Pathology Models using Textual Concepts [10.492119814539675]
胸部X線(CoCoX)に対する概念的対実的説明法を提案する。
我々は既存の視覚言語モデル(VLM)の結合埋め込み空間を利用して、注釈付きデータセットを必要とせずにブラックボックス分類結果を説明する。
本稿では,本手法が生み出す説明が意味論的に意味を持ち,根底にある病理に忠実であることを示す。
論文 参考訳(メタデータ) (2024-06-30T01:31:54Z) - Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - XCoOp: Explainable Prompt Learning for Computer-Aided Diagnosis via Concept-guided Context Optimization [4.634780391920529]
本稿では,画像,学習可能なプロンプト,臨床概念に基づくプロンプトのセマンティクスを整合させることにより,医療知識を活用する新しい説明可能なプロンプト学習フレームワークを提案する。
我々のフレームワークは、大きな言語モデルから知識を引き出すことによって、価値ある概念アノテーションの欠如に対処する。
提案手法は,XAIにおける基礎モデルの有効性に光を当て,優れた診断性能,柔軟性,解釈可能性を実現する。
論文 参考訳(メタデータ) (2024-03-14T14:02:01Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。