論文の概要: Marginal Contribution Feature Importance -- an Axiomatic Approach for
The Natural Case
- arxiv url: http://arxiv.org/abs/2010.07910v1
- Date: Thu, 15 Oct 2020 17:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:44:46.647572
- Title: Marginal Contribution Feature Importance -- an Axiomatic Approach for
The Natural Case
- Title(参考訳): Marginal Contribution Feature Importance -- 自然症例に対する軸索的アプローチ
- Authors: Amnon Catav, Boyang Fu, Jason Ernst, Sriram Sankararaman, Ran
Gilad-Bachrach
- Abstract要約: 本研究では,自然シナリオにおける特徴重要関数から期待される特性を表す公理の集合を開発する。
理論的および経験的特性からこの関数を解析し、他の特徴重要度と比較する。
- 参考スコア(独自算出の注目度): 13.94406695921022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When training a predictive model over medical data, the goal is sometimes to
gain insights about a certain disease. In such cases, it is common to use
feature importance as a tool to highlight significant factors contributing to
that disease. As there are many existing methods for computing feature
importance scores, understanding their relative merits is not trivial. Further,
the diversity of scenarios in which they are used lead to different
expectations from the feature importance scores. While it is common to make the
distinction between local scores that focus on individual predictions and
global scores that look at the contribution of a feature to the model, another
important division distinguishes model scenarios, in which the goal is to
understand predictions of a given model from natural scenarios, in which the
goal is to understand a phenomenon such as a disease. We develop a set of
axioms that represent the properties expected from a feature importance
function in the natural scenario and prove that there exists only one function
that satisfies all of them, the Marginal Contribution Feature Importance (MCI).
We analyze this function for its theoretical and empirical properties and
compare it to other feature importance scores. While our focus is the natural
scenario, we suggest that our axiomatic approach could be carried out in other
scenarios too.
- Abstract(参考訳): 医療データよりも予測モデルをトレーニングする場合、ある病気についての洞察を得ることが目標となる。
このような場合、その疾患に寄与する重要な要因を明らかにするツールとして、特徴の重要性を用いるのが一般的である。
機能重要度を計算するための既存の方法が数多く存在するため、その相対的なメリットを理解することは容易ではない。
さらに、それらを使用するシナリオの多様性は、機能の重要性スコアとは異なる期待を導きます。
個々の予測に焦点をあてる局所的なスコアと、モデルに対する特徴の寄与に目を向けるグローバルスコアとを区別することは一般的であるが、別の重要な区分では、あるモデルの予測を自然のシナリオから理解すること、疾患のような現象を理解することを目標とするモデルシナリオを区別する。
我々は,自然シナリオにおける特徴重要関数から期待される特性を表す公理の集合を開発し,それら全てを満たす関数が1つ存在することを証明した。
この関数を理論的および経験的性質で解析し,他の特徴重要度と比較する。
私たちの焦点は自然なシナリオですが、私たちの公理的なアプローチは他のシナリオでも実行可能であることを提案します。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Inherent Inconsistencies of Feature Importance [6.02357145653815]
特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-16T14:21:51Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - On Shapley Credit Allocation for Interpretability [1.52292571922932]
学習モデルの判断を解釈する際に適切な質問を行うことの重要性を強調する。
本稿では,Shapley symmetrizationの特徴関数として,解釈の異なる性質と異なる尺度を織り込むことによって特徴関連性を定量化する。
論文 参考訳(メタデータ) (2020-12-10T08:25:32Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Nonparametric Feature Impact and Importance [0.6123324869194193]
データ上で直接動作する部分依存曲線から導かれる特徴的影響と重要性の数学的定義を与える。
品質を評価するために、これらの定義によってランク付けされた特徴は、既存の特徴選択技術と競合することを示す。
論文 参考訳(メタデータ) (2020-06-08T17:07:35Z) - Understanding Global Feature Contributions With Additive Importance
Measures [14.50261153230204]
我々は,各特徴に関連付けられた予測力を通じて,特徴の重要性を定義する視点について検討する。
予測力(モデルベースと普遍性)の2つの概念を導入し、付加的重要度尺度の枠組みを用いてこのアプローチを定式化する。
次に,機能的相互作用を考慮に入れながら予測力を定量化するモデルに依存しないSAGEを提案する。
論文 参考訳(メタデータ) (2020-04-01T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。