論文の概要: Exemplars and Counterexemplars Explanations for Image Classifiers,
Targeting Skin Lesion Labeling
- arxiv url: http://arxiv.org/abs/2302.03033v1
- Date: Wed, 18 Jan 2023 11:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 13:04:57.999748
- Title: Exemplars and Counterexemplars Explanations for Image Classifiers,
Targeting Skin Lesion Labeling
- Title(参考訳): 皮膚病変ラベリングを標的とした画像分類器のexemplarsと counterexemplars explanations
- Authors: Carlo Metta, Riccardo Guidotti, Yuan Yin, Patrick Gallinari, Salvatore
Rinzivillo
- Abstract要約: 説明可能なAIは、意思決定システムと人間とのインタラクションを可能にするメカニズムの開発で構成されている。
これは医学領域のようなセンシティブな文脈において特に重要である。
本報告では,皮膚病変の診断における実践者への説明の仕方について考察する。
- 参考スコア(独自算出の注目度): 26.17582232842832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI consists in developing mechanisms allowing for an interaction
between decision systems and humans by making the decisions of the formers
understandable. This is particularly important in sensitive contexts like in
the medical domain. We propose a use case study, for skin lesion diagnosis,
illustrating how it is possible to provide the practitioner with explanations
on the decisions of a state of the art deep neural network classifier trained
to characterize skin lesions from examples. Our framework consists of a trained
classifier onto which an explanation module operates. The latter is able to
offer the practitioner exemplars and counterexemplars for the classification
diagnosis thus allowing the physician to interact with the automatic diagnosis
system. The exemplars are generated via an adversarial autoencoder. We
illustrate the behavior of the system on representative examples.
- Abstract(参考訳): 説明可能なAIは、前者の判断を理解できるようにすることで、意思決定システムと人間の相互作用を可能にするメカニズムを開発することで構成される。
これは医学領域のようなセンシティブな文脈において特に重要である。
本稿では,皮膚病変の診断のためのユースケーススタディとして,皮膚病変を特徴付けるために訓練された深層ニューラルネットワーク分類器の状態の決定に関する説明を実践者に提供する方法について述べる。
私たちのフレームワークは、説明モジュールが動作する訓練済みの分類器で構成されています。
後者は、医師が自動診断システムと対話できるような分類診断のための開業医の例と対例を提供することができる。
例示は、逆オートエンコーダを介して生成される。
本稿では,システムの挙動を代表例で示す。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Explainable Deep Image Classifiers for Skin Lesion Diagnosis [16.483826925814522]
医療診断などの重要な文脈における重要な問題は、意思決定システムで採用されるディープラーニングモデルの解釈可能性である。
本稿では,既存のXAIアプローチをカスタマイズして,異なる種類の皮膚病変を認識可能な深層学習モデルを説明する,皮膚病変画像のケーススタディを分析する。
論文 参考訳(メタデータ) (2021-11-22T10:42:20Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Using Causal Analysis for Conceptual Deep Learning Explanation [11.552000005640203]
理想的な説明はドメインエキスパートの意思決定プロセスに似ている。
胸部X線像を伴って放射線検査を行い,概念を定義した。
我々は、発見されたすべての概念を簡単な決定規則に変換するために、低深度決定木を構築します。
論文 参考訳(メタデータ) (2021-07-10T00:01:45Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explaining Predictions of Deep Neural Classifier via Activation Analysis [0.11470070927586014]
本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
論文 参考訳(メタデータ) (2020-12-03T20:36:19Z) - Explanation Ontology in Action: A Clinical Use-Case [3.1783442097247345]
システム設計者が説明オントロジーを利用するためのステップバイステップのガイダンスを提供する。
本稿では,このガイダンスを臨床現場で活用した詳細な例を示す。
論文 参考訳(メタデータ) (2020-10-04T03:52:39Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。