論文の概要: Towards Rigorous Interpretations: a Formalisation of Feature Attribution
- arxiv url: http://arxiv.org/abs/2104.12437v1
- Date: Mon, 26 Apr 2021 10:04:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:57:08.797338
- Title: Towards Rigorous Interpretations: a Formalisation of Feature Attribution
- Title(参考訳): 厳密な解釈に向けて--特徴帰属の形式化
- Authors: Darius Afchar, Romain Hennequin and Vincent Guigue
- Abstract要約: リラックスした機能依存の概念に基づいた機能選択/属性の形式化を提案する。
合成データセットのアーストルースアトリビューションを計算することで、最適化された場合でも、提案された特性を検証し、間違ったソリューションを提供することに失敗する人もいます。
- 参考スコア(独自算出の注目度): 6.905391624417595
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Feature attribution is often loosely presented as the process of selecting a
subset of relevant features as a rationale of a prediction. This lack of
clarity stems from the fact that we usually do not have access to any notion of
ground-truth attribution and from a more general debate on what good
interpretations are. In this paper we propose to formalise feature
selection/attribution based on the concept of relaxed functional dependence. In
particular, we extend our notions to the instance-wise setting and derive
necessary properties for candidate selection solutions, while leaving room for
task-dependence. By computing ground-truth attributions on synthetic datasets,
we evaluate many state-of-the-art attribution methods and show that, even when
optimised, some fail to verify the proposed properties and provide wrong
solutions.
- Abstract(参考訳): 特徴属性は、しばしば予測の理論的根拠として関連する特徴のサブセットを選択する過程として緩やかに表される。
この明快さの欠如は、通常、根本真実の帰属という概念にアクセスできないという事実と、良い解釈とは何かというより一般的な議論から来ている。
本稿では,機能依存の緩和という概念に基づく特徴の選択/帰属を定式化する。
特に、我々は、タスク依存の余地を残しながら、インスタンスワイズ設定に拡張し、候補選択ソリューションに必要な特性を導出する。
合成データセットの基底帰属を計算することにより,最先端の帰属法を多数評価し,最適化しても提案する性質の検証に失敗し,誤った解が得られたことを示す。
関連論文リスト
- Local Feature Selection without Label or Feature Leakage for Interpretable Machine Learning Predictions [15.811319240038603]
ラベルと特徴リークの概念を定式化することで、ミスリード選択の問題に対処する。
本稿では,SUWRと呼ばれるリークがないことを示す,最初の局所特徴選択手法を提案する。
実験結果から,SUWRは過度に適合する傾向が低く,最先端の予測性能と高い特徴選択間隔を併せ持つことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-16T14:36:30Z) - Consciousness-Inspired Spatio-Temporal Abstractions for Better Generalization in Reinforcement Learning [83.41487567765871]
Skipperはモデルベースの強化学習フレームワークである。
これは、与えられたタスクをより小さく、より管理しやすいサブタスクに自動的に一般化する。
環境の関連部分には、スパースな意思決定と集中した抽象化を可能にする。
論文 参考訳(メタデータ) (2023-09-30T02:25:18Z) - On the Fundamental Trade-offs in Learning Invariant Representations [7.868449549351487]
データとそれに対応するターゲットとセマンティック属性間の統計的依存関係によって引き起こされるユーティリティとセマンティック依存の2つの基本的なトレードオフを特定し、決定する。
本稿では,代表問題に対するトレードオフを数値的に定量化し,ベースライン表現学習アルゴリズムによる解と比較する。
論文 参考訳(メタデータ) (2021-09-08T01:26:46Z) - Path Integrals for the Attribution of Model Uncertainties [0.18899300124593643]
本稿では,特徴ベクトルと反事実ベクトルを連結する分布内曲線に依存する新しいアルゴリズムを提案する。
我々は,様々な解像度で画像データセットをベンチマークし,解釈可能性を大幅に単純化することを示す。
論文 参考訳(メタデータ) (2021-07-19T11:07:34Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Invariant Rationalization [84.1861516092232]
典型的な合理化基準、すなわち最大相互情報(MMI)は、合理性のみに基づいて予測性能を最大化する合理性を見つける。
ゲーム理論の不変な有理化基準を導入し、各環境において同じ予測器を最適にするために、有理を制約する。
理論的にも実証的にも、提案された理性は、素早い相関を除外し、異なるテストシナリオをより一般化し、人間の判断とよく一致させることができることを示す。
論文 参考訳(メタデータ) (2020-03-22T00:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。