論文の概要: Inherent Inconsistencies of Feature Importance
- arxiv url: http://arxiv.org/abs/2206.08204v2
- Date: Tue, 5 Dec 2023 22:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 19:47:51.155783
- Title: Inherent Inconsistencies of Feature Importance
- Title(参考訳): 特徴重要度の不整合
- Authors: Nimrod Harel, Uri Obolski, Ran Gilad-Bachrach
- Abstract要約: 特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
- 参考スコア(独自算出の注目度): 6.02357145653815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement and widespread adoption of machine learning-driven
technologies have underscored the practical and ethical need for creating
interpretable artificial intelligence systems. Feature importance, a method
that assigns scores to the contribution of individual features on prediction
outcomes, seeks to bridge this gap as a tool for enhancing human comprehension
of these systems. Feature importance serves as an explanation of predictions in
diverse contexts, whether by providing a global interpretation of a phenomenon
across the entire dataset or by offering a localized explanation for the
outcome of a specific data point. Furthermore, feature importance is being used
both for explaining models and for identifying plausible causal relations in
the data, independently from the model. However, it is worth noting that these
various contexts have traditionally been explored in isolation, with limited
theoretical foundations.
This paper presents an axiomatic framework designed to establish coherent
relationships among the different contexts of feature importance scores.
Notably, our work unveils a surprising conclusion: when we combine the proposed
properties with those previously outlined in the literature, we demonstrate the
existence of an inconsistency. This inconsistency highlights that certain
essential properties of feature importance scores cannot coexist harmoniously
within a single framework.
- Abstract(参考訳): 機械学習駆動技術の急速な進歩と普及は、解釈可能な人工知能システムを作成するための実用的で倫理的な必要性を強調している。
予測結果に対する個々の特徴の寄与にスコアを割り当てる方法であるfeature importantは、これらのシステムの人間の理解を高めるツールとして、このギャップを橋渡ししようとしている。
特徴の重要性は、データセット全体にわたる現象のグローバル解釈を提供することや、特定のデータポイントの結果に関する局所的な説明を提供することによって、さまざまなコンテキストにおける予測を説明するのに役立ちます。
さらに、特徴的重要性は、モデルの説明と、モデルとは独立に、データ内の妥当な因果関係を特定するために使用されている。
しかし、これらの様々な文脈は伝統的に独立して研究され、理論的な基礎は限られている。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
特に、我々の研究は驚くべき結論を公表している: 提案された特性と以前に文献で概説されたものを組み合わせると、矛盾の存在を実証する。
この矛盾は、特定の重要度スコアの本質的な性質が単一のフレームワーク内で調和して共存できないことを強調している。
関連論文リスト
- I Bet You Did Not Mean That: Testing Semantic Importance via Betting [8.909843275476264]
我々は、条件付き独立性を用いて不透明モデルの予測に対する意味論的概念のグローバル(すなわち人口以上)とローカル(すなわちサンプル)の統計的重要性を定式化する。
我々は、シーケンシャルなカーネル化独立テストという最近の考え方を用いて、概念間の重要度を誘導し、我々のフレームワークの有効性と柔軟性を示す。
論文 参考訳(メタデータ) (2024-05-29T14:51:41Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Marginal Contribution Feature Importance -- an Axiomatic Approach for
The Natural Case [13.94406695921022]
本研究では,自然シナリオにおける特徴重要関数から期待される特性を表す公理の集合を開発する。
理論的および経験的特性からこの関数を解析し、他の特徴重要度と比較する。
論文 参考訳(メタデータ) (2020-10-15T17:41:42Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - A Philosophy of Data [91.3755431537592]
我々は、統計計算に必要な基本特性から統計データの定義まで研究する。
我々は、有用なデータの必要性は、プロパティを根本的にユニークか等しく理解することを規則化する必要があると論じている。
データとデータ技術への依存度が高まるにつれて、この2つの特徴は現実の集合概念に影響を与えます。
論文 参考訳(メタデータ) (2020-04-15T14:47:24Z) - Feature Importance Estimation with Self-Attention Networks [0.0]
ブラックボックスニューラルネットワークモデルは、産業や科学で広く使われているが、理解と解釈が難しい。
近年,ニューラルネットワークモデルの内部動作に関する洞察を提供するアテンションメカニズムが導入されている。
本稿では、命題(タブラル)データから得られたモデルを説明する手段として、注目に基づくニューラルネットワーク機構を用いて特徴重要度を推定する。
論文 参考訳(メタデータ) (2020-02-11T15:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。