論文の概要: Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals
- arxiv url: http://arxiv.org/abs/2303.00500v1
- Date: Wed, 1 Mar 2023 13:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:38:49.465875
- Title: Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals
- Title(参考訳): クラス特化因子を用いた遺伝的に解釈可能なマルチラベル分類
- Authors: Susu Sun, Stefano Woerner, Andreas Maier, Lisa M. Koch, Christian F.
Baumgartner
- Abstract要約: 医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
- 参考スコア(独自算出の注目度): 9.485195366036292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is essential for machine learning algorithms in high-stakes
application fields such as medical image analysis. However, high-performing
black-box neural networks do not provide explanations for their predictions,
which can lead to mistrust and suboptimal human-ML collaboration. Post-hoc
explanation techniques, which are widely used in practice, have been shown to
suffer from severe conceptual problems. Furthermore, as we show in this paper,
current explanation techniques do not perform adequately in the multi-label
scenario, in which multiple medical findings may co-occur in a single image. We
propose Attri-Net, an inherently interpretable model for multi-label
classification. Attri-Net is a powerful classifier that provides transparent,
trustworthy, and human-understandable explanations. The model first generates
class-specific attribution maps based on counterfactuals to identify which
image regions correspond to certain medical findings. Then a simple logistic
regression classifier is used to make predictions based solely on these
attribution maps. We compare Attri-Net to five post-hoc explanation techniques
and one inherently interpretable classifier on three chest X-ray datasets. We
find that Attri-Net produces high-quality multi-label explanations consistent
with clinical knowledge and has comparable classification performance to
state-of-the-art classification models.
- Abstract(参考訳): 医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
しかし、高いパフォーマンスのブラックボックスニューラルネットワークは予測の説明を提供していないため、不信感や人間とMLのコラボレーションにつながる可能性がある。
実際には広く使われているポストホックな説明技術は、深刻な概念的問題に苦しむことが示されている。
さらに,本論文で示すように,複数の医学的所見が1つの画像に共生するマルチラベルシナリオでは,現在の説明手法が適切に機能しない。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
attri-netは、透明で信頼できる、人間に理解可能な説明を提供する強力な分類器である。
モデルはまず、偽物に基づいてクラス固有の帰属マップを生成し、どの画像領域が特定の医学的所見に対応するかを特定する。
次に、単純なロジスティック回帰分類器を用いて、これらの帰属写像のみに基づいて予測を行う。
Attri-Netを5つのポストホックな説明手法と3つの胸部X線データセット上の本質的に解釈可能な分類器と比較した。
Attri-Netは、臨床知識と整合した高品質なマルチラベル説明を生成し、最先端の分類モデルに匹敵する分類性能を有する。
関連論文リスト
- Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - PM2: A New Prompting Multi-modal Model Paradigm for Few-shot Medical Image Classification [12.628447384868503]
本稿では,PM2と呼ばれるマルチモーダル基盤モデルに基づく医用画像分類のための新しいマルチモーダルモデルパラダイムを提案する。
画像のモダリティに加えて、PM2はプロンプトとして知られる別の補足的なテキスト入力を導入し、対応する画像や概念クラスを記述している。
我々のPM2は、プロンプトスキームによらず、かなり優れており、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-04-13T07:27:06Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Weakly-supervised segmentation using inherently-explainable
classification models and their application to brain tumour classification [0.46873264197900916]
本稿では,これら2つの問題に1つとして対処するために,本質的に説明可能な3つの分類法を提案する。
モデルは2つの異なるデータセットを用いたマルチクラス脳腫瘍分類のタスクに採用された。
得られた腫瘍のみの画像のサブセットの精度は、最先端のグリオーマ腫瘍グレーディングバイナリ分類器を98.7%の精度で上回った。
論文 参考訳(メタデータ) (2022-06-10T14:44:05Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Improving Explainability of Image Classification in Scenarios with Class
Overlap: Application to COVID-19 and Pneumonia [7.372797734096181]
機械学習モデルによる予測の信頼度は、以前に見つからなかったサンプルに対してモデルがうまく一般化した場合に増大する。
本稿では,クラス重複によるモデルの不確実性を緩和し,画像分類の局所性を向上させる手法を提案する。
我々の手法は、新型コロナウイルスや肺炎などの実世界の重複シナリオにおいて特に有望であり、専門的にラベル付けされたローカライゼーションのためのデータが手軽に利用できない。
論文 参考訳(メタデータ) (2020-08-06T20:47:36Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。