論文の概要: TRIP: A Nonparametric Test to Diagnose Biased Feature Importance Scores
- arxiv url: http://arxiv.org/abs/2507.07276v1
- Date: Wed, 09 Jul 2025 20:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.203091
- Title: TRIP: A Nonparametric Test to Diagnose Biased Feature Importance Scores
- Title(参考訳): TRIP: バイアス付き特徴重要度スコアを診断するための非パラメトリックテスト
- Authors: Aaron Foote, Danny Krizanc,
- Abstract要約: TRIPは最小限の仮定を必要とするテストであり、信頼性の低い置換特徴の重要度を検出することができる。
この結果から, 置換特性の重要度が信頼できない場合に, 確実に検出できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Along with accurate prediction, understanding the contribution of each feature to the making of the prediction, i.e., the importance of the feature, is a desirable and arguably necessary component of a machine learning model. For a complex model such as a random forest, such importances are not innate -- as they are, e.g., with linear regression. Efficient methods have been created to provide such capabilities, with one of the most popular among them being permutation feature importance due to its efficiency, model-agnostic nature, and perceived intuitiveness. However, permutation feature importance has been shown to be misleading in the presence of dependent features as a result of the creation of unrealistic observations when permuting the dependent features. In this work, we develop TRIP (Test for Reliable Interpretation via Permutation), a test requiring minimal assumptions that is able to detect unreliable permutation feature importance scores that are the result of model extrapolation. To build on this, we demonstrate how the test can be complemented in order to allow its use in high dimensional settings. Through testing on simulated data and applications, our results show that the test can be used to reliably detect when permutation feature importance scores are unreliable.
- Abstract(参考訳): 正確な予測に加えて、各特徴の予測作成への貢献、すなわち、特徴の重要性を理解することは、機械学習モデルの望ましいかつ確実に必要となるコンポーネントである。
ランダムな森のような複雑なモデルでは、そのような重要性は生まれつきではなく、例えば線形回帰である。
そのような能力を提供するために効率的な方法が作られてきたが、その中でも最も人気があるのは、その効率性、モデルに依存しない性質、直感性が知覚されるためである。
しかし、置換特徴の重要性は、従属特徴を置換する際に非現実的な観察を生んだ結果、従属特徴の存在によって誤解を招くことが示されている。
本研究では、モデル外挿の結果である信頼できない置換特徴重要度を検出できる最小限の仮定を必要とするTRIP(Test for Reliable Interpretation via Permutation)を開発する。
これに基づいて,高次元設定での使用を可能にするために,テストをどのように補完するかを実演する。
シミュレーションデータやアプリケーションのテストを通じて,本研究の結果から,置換特徴重要度スコアが信頼できない場合に確実に検出できることが判明した。
関連論文リスト
- AICO: Feature Significance Tests for Supervised Learning [0.5142666700569699]
本稿では,任意の回帰アルゴリズムや分類アルゴリズムにおける入力特徴の影響を評価するために,モデルおよび分布に依存しない重要度テストを開発する。
我々は、この中央値に対して一様に強力でランダムな符号テストを構築し、特徴量と信頼区間を評価するための正確なp値を得る。
合成タスクの実験は、その統計的および計算上の利点を検証し、実世界のデータへの適用は、その実用性を示している。
論文 参考訳(メタデータ) (2025-06-29T21:15:40Z) - Conditional Feature Importance with Generative Modeling Using Adversarial Random Forests [1.0208529247755187]
説明可能な人工知能(XAI)では、条件付き特徴が予測モデルの性能に与える影響を評価する。
生成モデリングの最近の進歩は、条件付き特徴量の測定を容易にする。
本稿では,ARF推定条件分布から抽出した特徴値を用いて条件特徴重要度を測定する手法であるcARFiを提案する。
論文 参考訳(メタデータ) (2025-01-19T21:34:54Z) - Statistical Test for Auto Feature Engineering by Selective Inference [12.703556860454565]
オートフィーチャーエンジニアリング(AFE)は、実用的な機械学習パイプラインの開発において重要な役割を果たす。
選択推論というフレームワークをベースとした,AFEアルゴリズムによる特徴量生成のための新しい統計的テストを提案する。
提案試験では, 生成した特徴の統計的意義を$p$-valuesの形で定量化し, 誤検出のリスクを理論的に保証する。
論文 参考訳(メタデータ) (2024-10-13T12:26:51Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Conformal Prediction Under Feedback Covariate Shift for Biomolecular Design [56.86533144730384]
本稿では,トレーニングデータとテストデータが統計的に依存した環境での予測不確実性を定量化する手法を提案する。
モチベーション・ユースケースとして,本手法が設計したタンパク質の適合性予測の不確かさを定量化する方法を実データで示す。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Comparing interpretability and explainability for feature selection [0.6015898117103068]
各種ブラックボックスおよび解釈可能な機械学習手法における特徴選択法としての可変重要度の性能について検討する。
その結果,XGBoost はネイティブ変数重要度法や SHAP によらず,関連する特徴と無関係な特徴を明確に区別することができないことがわかった。
論文 参考訳(メタデータ) (2021-05-11T20:01:23Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。