論文の概要: The Berkelmans-Pries Feature Importance Method: A Generic Measure of
Informativeness of Features
- arxiv url: http://arxiv.org/abs/2301.04740v1
- Date: Wed, 11 Jan 2023 22:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:08:13.598528
- Title: The Berkelmans-Pries Feature Importance Method: A Generic Measure of
Informativeness of Features
- Title(参考訳): berkelmans-pries特徴重要度法:特徴のインフォメーション性に関する総括的尺度
- Authors: Joris Pries, Guus Berkelmans, Sandjai Bhulai, Rob van der Mei
- Abstract要約: 本稿では,Shapley値とBerkelmans-Pries依存性関数を組み合わせたBerkelmans-Pries FI法を提案する。
本研究は,既存手法が有用性に欠けるFI手法の大規模なコレクション(468)について実験的に示すものである。
このことは、Berkelmans-Pries FI法が複雑な相互依存性を持つデータセットを解析するための非常に価値のあるツールであることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, the use of machine learning models has emerged as a
generic and powerful means for prediction purposes. At the same time, there is
a growing demand for interpretability of prediction models. To determine which
features of a dataset are important to predict a target variable $Y$, a Feature
Importance (FI) method can be used. By quantifying how important each feature
is for predicting $Y$, irrelevant features can be identified and removed, which
could increase the speed and accuracy of a model, and moreover, important
features can be discovered, which could lead to valuable insights. A major
problem with evaluating FI methods, is that the ground truth FI is often
unknown. As a consequence, existing FI methods do not give the exact correct FI
values. This is one of the many reasons why it can be hard to properly
interpret the results of an FI method. Motivated by this, we introduce a new
global approach named the Berkelmans-Pries FI method, which is based on a
combination of Shapley values and the Berkelmans-Pries dependency function. We
prove that our method has many useful properties, and accurately predicts the
correct FI values for several cases where the ground truth FI can be derived in
an exact manner. We experimentally show for a large collection of FI methods
(468) that existing methods do not have the same useful properties. This shows
that the Berkelmans-Pries FI method is a highly valuable tool for analyzing
datasets with complex interdependencies.
- Abstract(参考訳): ここ数年、機械学習モデルの利用は、予測のための汎用的で強力な手段として現れてきた。
同時に、予測モデルの解釈可能性に対する需要が高まっている。
ターゲット変数の$Y$を予測するためにデータセットのどの機能が重要かを判断するために、Feature Importance(FI)メソッドを使用することができる。
y$を予測するための各機能の重要性を定量化することで、無関係な機能を識別および削除することが可能になり、モデルの速度と精度が向上し、さらに重要な機能の発見が可能になるため、貴重な洞察が得られます。
FI法の評価における大きな問題は、基底真理FIがしばしば未知であることである。
その結果、既存のfiメソッドは正確なfi値を与えない。
これがfiメソッドの結果を適切に解釈することが難しい多くの理由の1つです。
そこで本研究では,シェープリー値とベルケルマンズ・プライス依存性関数の組み合わせに基づく,berkelmans-pries fi法という新たなグローバルアプローチを提案する。
本手法は,多くの有用な特性を有することを証明し,基底真理fiが正確な方法で導出できる複数の場合の正確なfi値を精度良く予測する。
本研究は,既存手法が有用性に欠けるFI手法の大規模なコレクション(468)について実験的に示すものである。
これは、berkelmans-pries fi法が複雑な相互依存性を持つデータセットを解析するための非常に貴重なツールであることを示している。
関連論文リスト
- An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - "Will You Find These Shortcuts?" A Protocol for Evaluating the
Faithfulness of Input Salience Methods for Text Classification [38.22453895596424]
本稿では,部分合成データを用いて特徴重要度ランキングの真理を得る忠実度評価プロトコルを提案する。
BERT と LSTM モデルのデータセットおよびショートカットの4つの標準サリエンス法クラスを詳細に解析する。
ショートカットを識別する最良の方法を見つけるために、新しいタスクとモデルの組み合わせごとにプロトコルに従うことを推奨する。
論文 参考訳(メタデータ) (2021-11-14T15:31:29Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Do Feature Attribution Methods Correctly Attribute Features? [5.58592454173439]
特徴帰属法は、解釈可能な機械学習で非常に人気がある。
属性」の定義に関する合意はありません。
塩分マップ,合理性,注意の3つの方法を評価した。
論文 参考訳(メタデータ) (2021-04-27T20:35:30Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Bayesian Importance of Features (BIF) [11.312036995195594]
ディリクレ分布を用いて入力特徴の重要性を定義し、近似ベイズ推論により学習する。
学習された重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的な重要性を提供する。
本手法は, 各種合成および実データに対する有効性を示す。
論文 参考訳(メタデータ) (2020-10-26T19:55:58Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。