論文の概要: $φ$-test: Global Feature Selection and Inference for Shapley Additive Explanations
- arxiv url: http://arxiv.org/abs/2512.07578v1
- Date: Mon, 08 Dec 2025 14:14:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.918563
- Title: $φ$-test: Global Feature Selection and Inference for Shapley Additive Explanations
- Title(参考訳): $φ$-test: 共有付加的な説明のためのグローバルな特徴選択と推論
- Authors: Dongseok Kim, Hyoungsun Choi, Mohamed Jismy Aashik Rasool, Gisung Oh,
- Abstract要約: $$-testは、ブラックボックス予測器のグローバルな機能選択と重要な手順である。
$$-testは、シェープリーに基づく重要な要約と古典的な統計的推測を結びつける実用的なグローバルな説明層として機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose $φ$-test, a global feature-selection and significance procedure for black-box predictors that combines Shapley attributions with selective inference. Given a trained model and an evaluation dataset, $φ$-test performs SHAP-guided screening and fits a linear surrogate on the screened features via a selection rule with a tractable selective-inference form. For each retained feature, it outputs a Shapley-based global score, a surrogate coefficient, and post-selection $p$-values and confidence intervals in a global feature-importance table. Experiments on real tabular regression tasks with tree-based and neural backbones suggest that $φ$-test can retain much of the predictive ability of the original model while using only a few features and producing feature sets that remain fairly stable across resamples and backbone classes. In these settings, $φ$-test acts as a practical global explanation layer linking Shapley-based importance summaries with classical statistical inference.
- Abstract(参考訳): 我々は,Shapley属性と選択的推論を組み合わせたブラックボックス予測器のグローバルな特徴選択と重要度決定手法である$φ$-testを提案する。
訓練されたモデルと評価データセットが与えられた場合、$φ$-testはSHAP誘導スクリーニングを実行し、抽出可能な選択推論形式で選択ルールによってスクリーニングされた特徴に線形サロゲートを適合させる。
保持された各特徴に対して、グローバルな特徴重要度表において、Shapleyベースのグローバルスコア、代理係数、選択後の$p$-valuesおよび信頼区間を出力する。
ツリーベースおよびニューラルバックボーンを用いた実際の表付き回帰タスクの実験では、$φ$-testは、少数の機能のみを使用し、リサンプルやバックボーンクラス間でかなり安定な機能セットを生成しながら、元のモデルの予測能力の多くを維持できることが示唆されている。
これらの設定では、$φ$-testは、シェープリーに基づく重要な要約と古典的な統計的推測を結びつける実用的なグローバルな説明層として機能する。
関連論文リスト
- LLpowershap: Logistic Loss-based Automated Shapley Values Feature
Selection Method [0.0]
損失に基づくShapley値を用いて最小ノイズで情報的特徴を識別する新しい特徴選択手法LLpowershapを提案する。
シミュレーションの結果,LLpowershapはより多くの情報特徴を識別するだけでなく,他の最先端特徴選択法と比較して,ノイズ特性の少ない特徴を出力することがわかった。
論文 参考訳(メタデータ) (2024-01-23T11:46:52Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - Project and Probe: Sample-Efficient Domain Adaptation by Interpolating
Orthogonal Features [119.22672589020394]
多様な特徴の集合を学習し,これらの特徴を補間することによって対象分布に適応する,軽量でサンプル効率のよい手法を提案する。
複数の分散シフト設定を持つ4つのデータセットに対する実験により、Pro$2$は、限られたターゲットデータが与えられた場合、パフォーマンスを5~15%向上することが示された。
論文 参考訳(メタデータ) (2023-02-10T18:58:03Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Regression with Label Differential Privacy [64.21020761920322]
与えられた回帰損失関数の下で最適なラベルDPランダム化機構を導出する。
我々は、最適メカニズムが「ビンのランダム化応答」の形をとることを証明した。
論文 参考訳(メタデータ) (2022-12-12T17:41:32Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - RENT -- Repeated Elastic Net Technique for Feature Selection [0.46180371154032895]
特徴選択のための繰り返し弾性ネット技術(RENT)を提案する。
RENTは、弾力性のあるネット正規化を備えた一般化線形モデルのアンサンブルを使用しており、それぞれがトレーニングデータの異なるサブセットに基づいて訓練されている。
RENTは、トレーニング中に予測が難しいデータ内のオブジェクトの識別に関するモデル解釈のための貴重な情報を提供する。
論文 参考訳(メタデータ) (2020-09-27T07:55:52Z) - Interpretable feature subset selection: A Shapley value based approach [1.511944009967492]
プレイヤーとしての特徴とヒンジロスに基づく特徴関数を持つ協調ゲームである分類ゲームの概念を導入する。
我々の主な貢献は、任意のデータセットに対して、SVEA値のしきい値0がラベル予測のための共同相互作用が重要である特徴サブセットを特定することを示すことである($star$)。
論文 参考訳(メタデータ) (2020-01-12T16:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。