論文の概要: Inherent Inconsistencies of Feature Importance
- arxiv url: http://arxiv.org/abs/2206.08204v1
- Date: Thu, 16 Jun 2022 14:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-18 00:01:53.127144
- Title: Inherent Inconsistencies of Feature Importance
- Title(参考訳): 特徴重要度の不整合
- Authors: Nimrod Harel, Ran Gilad-Bachrach, Uri Obolski
- Abstract要約: 特徴の重要性は、特徴にスコアを割り当てることによって、このニーズを満たすことを目的としている。
所望のプロパティの小さなセットを定義することによって,音特徴重要度スコアの枠組みを開発する。
分離可能な集合に一意な極大分割が存在することを示す。
- 参考スコア(独自算出の注目度): 10.280740175120778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The black-box nature of modern machine learning techniques invokes a
practical and ethical need for explainability. Feature importance aims to meet
this need by assigning scores to features, so humans can understand their
influence on predictions. Feature importance can be used to explain predictions
under different settings: of the entire sample space or a specific instance; of
model behavior, or the dependencies in the data themselves. However, in most
cases thus far, each of these settings was studied in isolation.
We attempt to develop a sound feature importance score framework by defining
a small set of desired properties. Surprisingly, we prove an inconsistency
theorem, showing that the expected properties cannot hold simultaneously. To
overcome this difficulty, we propose the novel notion of re-partitioning the
feature space into separable sets. Such sets are constructed to contain
features that exhibit inter-set independence with respect to the target
variable. We show that there exists a unique maximal partitioning into
separable sets. Moreover, assigning scores to separable sets, instead of single
features, unifies the results of commonly used feature importance scores and
annihilates the inconsistencies we demonstrated.
- Abstract(参考訳): 現代の機械学習技術のブラックボックスの性質は、説明可能性に対する実践的で倫理的な要求を喚起する。
特徴の重要性は、特徴にスコアを割り当てることで、このニーズを満たすことを目的としている。
機能の重要性は、サンプル空間全体や特定のインスタンス、モデルの振る舞い、データ自体の依存関係など、異なる設定下での予測を説明するために利用することができる。
しかし、ほとんどのケースでは、これらの設定は独立して研究されている。
所望のプロパティの小さなセットを定義して,音特徴重要度スコアフレームワークの開発を試みる。
驚くべきことに、期待される性質が同時に保持できないことを示す不整合定理を証明する。
この難しさを克服するために,特徴空間を分離可能な集合に分割するという新しい概念を提案する。
このような集合は、対象変数に対する集合間独立性を示す特徴を含むように構成される。
分離可能な集合に一意な極大分割が存在することを示す。
さらに、単一の特徴ではなく、分離可能な集合にスコアを割り当てることで、一般的に使用される特徴重要度スコアの結果を統一し、実証した矛盾を解消する。
関連論文リスト
- I Bet You Did Not Mean That: Testing Semantic Importance via Betting [8.909843275476264]
我々は、条件付き独立性を用いて不透明モデルの予測に対する意味論的概念のグローバル(すなわち人口以上)とローカル(すなわちサンプル)の統計的重要性を定式化する。
我々は、シーケンシャルなカーネル化独立テストという最近の考え方を用いて、概念間の重要度を誘導し、我々のフレームワークの有効性と柔軟性を示す。
論文 参考訳(メタデータ) (2024-05-29T14:51:41Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Marginal Contribution Feature Importance -- an Axiomatic Approach for
The Natural Case [13.94406695921022]
本研究では,自然シナリオにおける特徴重要関数から期待される特性を表す公理の集合を開発する。
理論的および経験的特性からこの関数を解析し、他の特徴重要度と比較する。
論文 参考訳(メタデータ) (2020-10-15T17:41:42Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - A Philosophy of Data [91.3755431537592]
我々は、統計計算に必要な基本特性から統計データの定義まで研究する。
我々は、有用なデータの必要性は、プロパティを根本的にユニークか等しく理解することを規則化する必要があると論じている。
データとデータ技術への依存度が高まるにつれて、この2つの特徴は現実の集合概念に影響を与えます。
論文 参考訳(メタデータ) (2020-04-15T14:47:24Z) - Feature Importance Estimation with Self-Attention Networks [0.0]
ブラックボックスニューラルネットワークモデルは、産業や科学で広く使われているが、理解と解釈が難しい。
近年,ニューラルネットワークモデルの内部動作に関する洞察を提供するアテンションメカニズムが導入されている。
本稿では、命題(タブラル)データから得られたモデルを説明する手段として、注目に基づくニューラルネットワーク機構を用いて特徴重要度を推定する。
論文 参考訳(メタデータ) (2020-02-11T15:15:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。