論文の概要: Relative Feature Importance
- arxiv url: http://arxiv.org/abs/2007.08283v1
- Date: Thu, 16 Jul 2020 12:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:13:17.931748
- Title: Relative Feature Importance
- Title(参考訳): 相対的特徴の重要性
- Authors: Gunnar K\"onig, Christoph Molnar, Bernd Bischl, Moritz Grosse-Wentrup
- Abstract要約: 相対的特徴重要度(RFI)は、置換特徴重要度(PFI)と条件的特徴重要度(CFI)の一般化である。
RFIは、PFI対CFI二分法を超えて、より微妙な特徴重要度計算を可能にする。
相対的特徴関連性の意味の詳細な理論的解析に基づいて、RFIの一般的な解釈規則を導出する。
- 参考スコア(独自算出の注目度): 1.4474137122906163
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Interpretable Machine Learning (IML) methods are used to gain insight into
the relevance of a feature of interest for the performance of a model. Commonly
used IML methods differ in whether they consider features of interest in
isolation, e.g., Permutation Feature Importance (PFI), or in relation to all
remaining feature variables, e.g., Conditional Feature Importance (CFI). As
such, the perturbation mechanisms inherent to PFI and CFI represent extreme
reference points. We introduce Relative Feature Importance (RFI), a
generalization of PFI and CFI that allows for a more nuanced feature importance
computation beyond the PFI versus CFI dichotomy. With RFI, the importance of a
feature relative to any other subset of features can be assessed, including
variables that were not available at training time. We derive general
interpretation rules for RFI based on a detailed theoretical analysis of the
implications of relative feature relevance, and demonstrate the method's
usefulness on simulated examples.
- Abstract(参考訳): 解釈可能な機械学習(IML)手法は、モデルの性能に対する興味のある特徴の関連性を理解するために用いられる。
一般的に使用されるIMLメソッドは、PFI(Permutation Feature Importance)や、CFI(Conditional Feature Importance)などの残りのすべての特徴変数に関して、分離に関心のある特徴を考慮するかどうかが異なる。
このように、PFIとCFIに固有の摂動機構は極端な基準点を表す。
本稿では,PFIとCFIを一般化したRelative Feature Importance (RFI)を導入する。
RFIでは、トレーニング時に利用できなかった変数を含む、機能の他のサブセットに対する機能の重要性を評価することができる。
rfiの一般解釈規則を,相対的特徴関係の詳細な理論的解析に基づいて導出し,シミュレーション例での有用性を示す。
関連論文リスト
- Optimal ablation for interpretability [5.108909395876561]
解釈可能性の研究は、しばしば機械学習モデルを通して情報の流れをトレースする。
以前の作業では、特定のタスクにおけるモデルコンポーネントの重要性を定量化するために、そのコンポーネントに対するアブレーションの実行の影響を測定したり、コンポーネントを無効にしたモデル推論をシミュレートする。
そこで本研究では,OAをベースとしたコンポーネントの重要性が,他のアブレーション法よりも理論的,経験的優位性を持っていることを示す。
論文 参考訳(メタデータ) (2024-09-16T02:45:54Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Regularized Multivariate Functional Principal Component Analysis [3.4238565157486187]
本稿では,プライマリコンポーネントの粗さ制御の問題に対処するため,Realized theCA (ReCA) と呼ばれる新しいアプローチを提案する。
提案手法は多変量関数型PCを生成し,データの簡潔かつ解釈可能な表現を提供する。
論文 参考訳(メタデータ) (2023-06-24T14:22:25Z) - Opening the random forest black box by the analysis of the mutual impact
of features [0.0]
ランダム林における特徴の相互影響に着目した2つの新しいアプローチを提案する。
MFIとMIRは、機能と成果の間の複雑な関係に光を当てることを非常に約束しています。
論文 参考訳(メタデータ) (2023-04-05T15:03:46Z) - EFI: A Toolbox for Feature Importance Fusion and Interpretation in
Python [1.593222804814135]
Ensemble Feature Importance (EFI)は、機械学習(ML)研究者、ドメインエキスパート、意思決定者のためのオープンソースのPythonツールボックスである。
EFIは、頑健で正確な特徴重要性の定量化と、予測問題に対する特徴重要性のより信頼性の高い機械的解釈を提供する。
論文 参考訳(メタデータ) (2022-08-08T18:02:37Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - The role of feature space in atomistic learning [62.997667081978825]
物理的にインスパイアされた記述子は、原子論シミュレーションへの機械学習技術の応用において重要な役割を果たしている。
異なる記述子のセットを比較するためのフレームワークを導入し、メトリクスとカーネルを使ってそれらを変換するさまざまな方法を紹介します。
原子密度のn-体相関から構築した表現を比較し,低次特徴の利用に伴う情報損失を定量的に評価した。
論文 参考訳(メタデータ) (2020-09-06T14:12:09Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。