論文の概要: Are Explanations Helpful? A Comparative Analysis of Explainability Methods in Skin Lesion Classifiers
- arxiv url: http://arxiv.org/abs/2412.03166v1
- Date: Wed, 04 Dec 2024 09:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:08:12.705863
- Title: Are Explanations Helpful? A Comparative Analysis of Explainability Methods in Skin Lesion Classifiers
- Title(参考訳): 説明は役に立つか? : 皮膚病変分類器における説明可能性法の比較分析
- Authors: Rosa Y. G. Paccotacya-Yanque, Alceu Bissoto, Sandra Avila,
- Abstract要約: 皮膚疾患モデルでは,Desiderataを説明として同定する。
以上の結果から,これらの手法がバイアスを明らかにする一方で,説明の包括性を改善する余地があることが示唆された。
- 参考スコア(独自算出の注目度): 8.946097281199375
- License:
- Abstract: Deep Learning has shown outstanding results in computer vision tasks; healthcare is no exception. However, there is no straightforward way to expose the decision-making process of DL models. Good accuracy is not enough for skin cancer predictions. Understanding the model's behavior is crucial for clinical application and reliable outcomes. In this work, we identify desiderata for explanations in skin-lesion models. We analyzed seven methods, four based on pixel-attribution (Grad-CAM, Score-CAM, LIME, SHAP) and three on high-level concepts (ACE, ICE, CME), for a deep neural network trained on the International Skin Imaging Collaboration Archive. Our findings indicate that while these techniques reveal biases, there is room for improving the comprehensiveness of explanations to achieve transparency in skin-lesion models.
- Abstract(参考訳): ディープラーニングはコンピュータビジョンタスクにおいて卓越した結果を示しており、ヘルスケアは例外ではない。
しかし、DLモデルの意思決定プロセスを簡単に公開する方法は存在しない。
皮膚がんの予測には精度が十分ではない。
モデルの振る舞いを理解することは臨床応用と信頼性の高い結果に不可欠である。
そこで本研究では,皮膚モデルで説明するためにデシラタを同定する。
我々は,4つのピクセル属性(Grad-CAM, Score-CAM, LIME, SHAP)と3つの高レベル概念(ACE, ICE, CME)に基づく深層ニューラルネットワークの解析を行った。
以上の結果から,これらの手法は偏見を呈するが,皮膚モデルにおける透明性を実現するための説明の包括性を向上する余地があることが示唆された。
関連論文リスト
- Integrating Clinical Knowledge into Concept Bottleneck Models [18.26357481872999]
概念ボトルネックモデル(CBM)は最終出力を予測する前に人間の解釈可能な概念を予測する。
臨床知識の統合によるCBMの洗練, 臨床医の意思決定プロセスとの整合性の向上を提案する。
医療画像の2つのデータセット(白血球と皮膚画像)にアプローチを検証した。
論文 参考訳(メタデータ) (2024-07-09T07:03:42Z) - SkinGEN: an Explainable Dermatology Diagnosis-to-Generation Framework with Interactive Vision-Language Models [52.90397538472582]
SkinGENは、VLMが提供する診断結果から参照デモを生成する、診断から生成までのフレームワークである。
システム性能と説明可能性の両方を評価するために,32人の参加者によるユーザスタディを実施している。
その結果、SkinGENはVLM予測に対するユーザの理解を著しく改善し、診断プロセスへの信頼を高めることが示されている。
論文 参考訳(メタデータ) (2024-04-23T05:36:33Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Multi-class Skin Cancer Classification Architecture Based on Deep
Convolutional Neural Network [2.4469484645516837]
本稿では,異なる種類の皮膚病変を正確に同定するコンピュータによる深層学習手法を提案する。
ディープラーニングアプローチは、モデルが画像の各ピクセルを学習するため、皮膚がんを極めて正確に検出することができる。
いくつかのディープラーニングモデルには制限があり、モデルが偽陽性の結果に導かれる。
論文 参考訳(メタデータ) (2023-03-13T23:16:18Z) - Towards Trustable Skin Cancer Diagnosis via Rewriting Model's Decision [12.306688233127312]
本稿では,モデルトレーニングプロセスにHuman-in-the-loopフレームワークを導入する。
提案手法は, 共起因子を自動的に検出する。
容易に得られる概念の模範を用いて、相反する概念を学習することができる。
論文 参考訳(メタデータ) (2023-03-02T01:02:18Z) - A Survey on Deep Learning for Skin Lesion Segmentation [32.523358996420846]
皮膚がんは、この一般的な疾患の負担を軽減するために、コンピュータ支援による診断の恩恵を受ける主要な公衆衛生問題である。
画像からの皮膚病変のセグメンテーションは、この目標を達成するための重要なステップである。
天然物や人工物(毛髪や気泡など)の存在、本質的要因(病変の形状やコントラストなど)、画像取得条件の変化により、皮膚病変のセグメンテーションは難しい課題となる。
論文 参考訳(メタデータ) (2022-06-01T09:43:10Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - On Interpretability of Deep Learning based Skin Lesion Classifiers using
Concept Activation Vectors [6.188009802619095]
メラノーマ, メラノーマ, セボリックケラトーシスの3種類の皮膚腫瘍の分類には, 十分に訓練された高性能ニューラルネットワークを用いている。
概念活性化ベクトル(CAV)の助けを借りて、人間の理解可能な概念をRECOD画像分類モデルにマッピングする
論文 参考訳(メタデータ) (2020-05-05T08:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。