論文の概要: Understanding Global Feature Contributions With Additive Importance
Measures
- arxiv url: http://arxiv.org/abs/2004.00668v2
- Date: Tue, 27 Oct 2020 06:46:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:09:22.119817
- Title: Understanding Global Feature Contributions With Additive Importance
Measures
- Title(参考訳): 付加的重要度尺度によるグローバル特徴量の理解
- Authors: Ian Covert, Scott Lundberg, Su-In Lee
- Abstract要約: 我々は,各特徴に関連付けられた予測力を通じて,特徴の重要性を定義する視点について検討する。
予測力(モデルベースと普遍性)の2つの概念を導入し、付加的重要度尺度の枠組みを用いてこのアプローチを定式化する。
次に,機能的相互作用を考慮に入れながら予測力を定量化するモデルに依存しないSAGEを提案する。
- 参考スコア(独自算出の注目度): 14.50261153230204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the inner workings of complex machine learning models is a
long-standing problem and most recent research has focused on local
interpretability. To assess the role of individual input features in a global
sense, we explore the perspective of defining feature importance through the
predictive power associated with each feature. We introduce two notions of
predictive power (model-based and universal) and formalize this approach with a
framework of additive importance measures, which unifies numerous methods in
the literature. We then propose SAGE, a model-agnostic method that quantifies
predictive power while accounting for feature interactions. Our experiments
show that SAGE can be calculated efficiently and that it assigns more accurate
importance values than other methods.
- Abstract(参考訳): 複雑な機械学習モデルの内部動作を理解することは長年の課題であり、最近の研究は局所的な解釈可能性に焦点を当てている。
グローバルな意味での個々の入力特徴の役割を評価するために,各特徴に関連付けられた予測力を通して,特徴の重要性を定義する視点を探る。
予測力(モデルベースと普遍性)の2つの概念を導入し,この手法を付加的重要度尺度の枠組みで定式化する。
次に,機能的相互作用を考慮した予測力の定量化手法であるSAGEを提案する。
実験の結果、SAGEは効率よく計算でき、他の方法よりも正確な重要値を割り当てることがわかった。
関連論文リスト
- Harmonizing Feature Attributions Across Deep Learning Architectures:
Enhancing Interpretability and Consistency [2.2237337682863125]
本研究では,様々なディープラーニングアーキテクチャにおける特徴属性の一般化について検討する。
私たちは、より一貫性があり楽観的な特徴属性の理解を深めることを目指しています。
本研究は,解釈可能性の向上と機械学習アプリケーションの信頼性向上を目的とした,調和した特徴帰属手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-05T09:46:41Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Post Hoc Explanations of Language Models Can Improve Language Models [43.2109029463221]
AMPLIFY(Post Hoc Explanations)を用いたインコンテキスト学習の活用によるモデル性能向上のための新しいフレームワークを提案する。
我々は,各入力特徴がモデル予測に与える影響を抽出し,帰属スコア(説明)を出力するポストホック説明手法を活用する。
AMPLIFYは,幅広いタスクに対して約10~25%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-05-19T04:46:04Z) - Inherent Inconsistencies of Feature Importance [6.02357145653815]
特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-16T14:21:51Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition [48.06319154279427]
本研究では,スパン間の類似性を学習するインスタンスベースの学習手法を提案する。
本手法では,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができる。
論文 参考訳(メタデータ) (2020-04-29T23:32:42Z) - A general framework for inference on algorithm-agnostic variable
importance [3.441021278275805]
本稿では,解釈可能なアルゴリズムに依存しない変数重要度に関する非推論のためのフレームワークを提案する。
本提案は,HIV-1感染に対する抗体調査から得られたデータを用いて,良好な手術特性を示す。
論文 参考訳(メタデータ) (2020-04-07T20:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。