論文の概要: Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals
- arxiv url: http://arxiv.org/abs/2406.05477v1
- Date: Sat, 8 Jun 2024 13:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:35:37.884443
- Title: Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals
- Title(参考訳): Attri-Net: クラス特化因子を用いたマルチラベル分類のためのグローバルかつ局所的に解釈可能なモデル
- Authors: Susu Sun, Stefano Woerner, Andreas Maier, Lisa M. Koch, Christian F. Baumgartner,
- Abstract要約: 高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
- 参考スコア(独自算出の注目度): 4.384272169863716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability is crucial for machine learning algorithms in high-stakes medical applications. However, high-performing neural networks typically cannot explain their predictions. Post-hoc explanation methods provide a way to understand neural networks but have been shown to suffer from conceptual problems. Moreover, current research largely focuses on providing local explanations for individual samples rather than global explanations for the model itself. In this paper, we propose Attri-Net, an inherently interpretable model for multi-label classification that provides local and global explanations. Attri-Net first counterfactually generates class-specific attribution maps to highlight the disease evidence, then performs classification with logistic regression classifiers based solely on the attribution maps. Local explanations for each prediction can be obtained by interpreting the attribution maps weighted by the classifiers' weights. Global explanation of whole model can be obtained by jointly considering learned average representations of the attribution maps for each class (called the class centers) and the weights of the linear classifiers. To ensure the model is ``right for the right reason", we further introduce a mechanism to guide the model's explanations to align with human knowledge. Our comprehensive evaluations show that Attri-Net can generate high-quality explanations consistent with clinical knowledge while not sacrificing classification performance.
- Abstract(参考訳): 高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
しかし、高性能ニューラルネットワークは一般的に予測を説明できない。
ポストホックな説明法は、ニューラルネットワークを理解する方法を提供するが、概念的な問題に悩まされていることが示されている。
さらに、現在の研究は、モデル自体のグローバルな説明よりも、個々のサンプルに局所的な説明を提供することに重点を置いている。
本稿では,局所的およびグローバルな説明を提供するマルチラベル分類モデルであるAttri-Netを提案する。
Attri-Netは、まず、病気の証拠を強調するためにクラス固有の属性マップを生成し、その後、属性マップのみに基づいてロジスティック回帰分類器を用いて分類を行う。
各予測に対する局所的な説明は、分類器の重みによって重み付けられた帰属写像を解釈することによって得られる。
モデル全体のグローバルな説明は、各クラス(クラス中心と呼ばれる)に対する帰属写像の学習平均表現と線形分類器の重みを共同で検討することで得られる。
モデルが正しい理由のために正しいことを保証するために、我々はさらに、人間の知識に合わせるためにモデルの説明をガイドするメカニズムを導入します。
総合評価の結果、Attri-Netは分類性能を犠牲にすることなく、臨床知識と整合した高品質な説明を生成できることがわかった。
関連論文リスト
- Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - Inherently Interpretable Multi-Label Classification Using Class-Specific
Counterfactuals [9.485195366036292]
医療画像解析などの高度な応用分野における機械学習アルゴリズムの解釈性は不可欠である。
マルチラベル分類のための本質的に解釈可能なモデルであるAttri-Netを提案する。
Attri-Netは,臨床知識と整合した高品質なマルチラベル説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T13:32:55Z) - A Top-down Supervised Learning Approach to Hierarchical Multi-label
Classification in Networks [0.21485350418225244]
本稿では,階層型マルチラベル分類(HMC)に対する一般的な予測モデルを提案する。
クラスごとの局所分類器を構築することで教師あり学習により階層的マルチラベル分類に対処するトップダウン分類アプローチに基づいている。
本モデルでは, イネOryza sativa Japonicaの遺伝子機能の予測について事例研究を行った。
論文 参考訳(メタデータ) (2022-03-23T17:29:17Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Improving Explainability of Image Classification in Scenarios with Class
Overlap: Application to COVID-19 and Pneumonia [7.372797734096181]
機械学習モデルによる予測の信頼度は、以前に見つからなかったサンプルに対してモデルがうまく一般化した場合に増大する。
本稿では,クラス重複によるモデルの不確実性を緩和し,画像分類の局所性を向上させる手法を提案する。
我々の手法は、新型コロナウイルスや肺炎などの実世界の重複シナリオにおいて特に有望であり、専門的にラベル付けされたローカライゼーションのためのデータが手軽に利用できない。
論文 参考訳(メタデータ) (2020-08-06T20:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。