論文の概要: HyConEx: Hypernetwork classifier with counterfactual explanations
- arxiv url: http://arxiv.org/abs/2503.12525v1
- Date: Sun, 16 Mar 2025 14:39:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:34:20.537355
- Title: HyConEx: Hypernetwork classifier with counterfactual explanations
- Title(参考訳): HyConEx: カウンターファクトな説明付きハイパーネットワーク分類器
- Authors: Patryk Marszałek, Ulvi Movsum-zada, Oleksii Furman, Kamil Książek, Przemysław Spurek, Marek Śmieja,
- Abstract要約: 本稿では,表データに特化して設計されたディープハイパーネットに基づく分類モデルHyConExを紹介する。
ユニークなアーキテクチャのため、HyConExはクラス予測を提供するだけでなく、個々のデータサンプルのローカル解釈も提供する。
HyConExは、分類精度を評価し、適切なカウンターファクト攻撃の基準を満たすいくつかの指標で競合性能を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In recent years, there has been a growing interest in explainable AI methods. We want not only to make accurate predictions using sophisticated neural networks but also to understand what the model's decision is based on. One of the fundamental levels of interpretability is to provide counterfactual examples explaining the rationale behind the decision and identifying which features, and to what extent, must be modified to alter the model's outcome. To address these requirements, we introduce HyConEx, a classification model based on deep hypernetworks specifically designed for tabular data. Owing to its unique architecture, HyConEx not only provides class predictions but also delivers local interpretations for individual data samples in the form of counterfactual examples that steer a given sample toward an alternative class. While many explainable methods generated counterfactuals for external models, there have been no interpretable classifiers simultaneously producing counterfactual samples so far. HyConEx achieves competitive performance on several metrics assessing classification accuracy and fulfilling the criteria of a proper counterfactual attack. This makes HyConEx a distinctive deep learning model, which combines predictions and explainers as an all-in-one neural network. The code is available at https://github.com/gmum/HyConEx.
- Abstract(参考訳): 近年、説明可能なAI手法への関心が高まっている。
私たちは、洗練されたニューラルネットワークを使用して正確な予測を行うだけでなく、モデルの決定が何に基づいているかを理解したいと思っています。
解釈可能性の基本的なレベルの一つは、決定の背後にある根拠を説明し、どの特徴をどの程度において、モデルの結果を変えるために変更する必要があるかを識別する反実的な例を提供することである。
これらの要件に対処するために,表データに特化して設計されたディープハイパーネットワークに基づく分類モデルHyConExを導入する。
ユニークなアーキテクチャのため、HyConExはクラス予測を提供するだけでなく、個々のデータサンプルに対して、あるサンプルを代替クラスに向けて操る反ファクト的な例という形で局所的な解釈を提供する。
多くの説明可能な手法が外部モデルに対して反実例を生成するが、これまでは反実例を同時に生成する解釈可能な分類器は存在していない。
HyConExは、分類精度を評価し、適切なカウンターファクト攻撃の基準を満たすいくつかの指標で競合性能を達成する。
これによりHyConExは、予測と説明をオールインワンニューラルネットワークとして組み合わせた、ユニークなディープラーニングモデルになる。
コードはhttps://github.com/gmum/HyConExで入手できる。
関連論文リスト
- Concept Based Explanations and Class Contrasting [0.0]
本稿では,概念に基づく説明手法を導入し,個々のクラスの予測と2つのクラスを対比する手法を提案する。
我々は、ImageNet1Kでトレーニングされたいくつかの分類モデルと、染色組織サンプルの腫瘍を検出する訓練されたセグメンテーションモデルでテストした。
論文 参考訳(メタデータ) (2025-02-05T18:10:02Z) - Test-Time Alignment via Hypothesis Reweighting [56.71167047381817]
大規模な事前訓練されたモデルは、しばしば未指定のタスクで苦労する。
テストタイムのユーザ意図にモデルを整合させるという課題に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T23:02:26Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Hyper Evidential Deep Learning to Quantify Composite Classification Uncertainty [11.964685090237392]
本稿では,ハイパーエビデンシャルニューラルネットワーク(HENN, Hyper-Evidential Neural Network)と呼ばれる新しいフレームワークが,複合クラスラベルによる予測の不確かさを明示的にモデル化していることを示す。
以上の結果から,HENNは4つの画像データセットに基づいて最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-17T01:26:15Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - ECINN: Efficient Counterfactuals from Invertible Neural Networks [80.94500245955591]
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
論文 参考訳(メタデータ) (2021-03-25T09:23:24Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - Sampling Prediction-Matching Examples in Neural Networks: A
Probabilistic Programming Approach [9.978961706999833]
本稿では,確率的プログラミングを用いた分類器の予測レベルセットの探索について考察する。
我々は,予測器が同一の特定の予測信頼度を持つ例のセットとして,予測レベルを定義した。
合成データセットとMNISTを用いた実験により,本手法を実証する。
論文 参考訳(メタデータ) (2020-01-09T15:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。