論文の概要: AICO: Feature Significance Tests for Supervised Learning
- arxiv url: http://arxiv.org/abs/2506.23396v4
- Date: Wed, 22 Oct 2025 22:21:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:08.240194
- Title: AICO: Feature Significance Tests for Supervised Learning
- Title(参考訳): AICO: 教師付き学習のための重要なテスト
- Authors: Kay Giesecke, Enguerrand Horel, Chartsiri Jirachotkulthorn,
- Abstract要約: AICOは、トレーニングされた回帰モデルや分類モデルに対して、各機能がモデルのパフォーマンスを真に改善するかどうかを問う。
機能の情報を隠蔽し、結果として生じるパフォーマンスの変化を測定することで実現します。
AICOは、モデルの振る舞いを駆動する変数を一貫して特定する。
- 参考スコア(独自算出の注目度): 0.9474649136535703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has become a central tool across scientific, industrial, and policy domains. Algorithms now identify chemical properties, forecast disease risk, screen borrowers, and guide public interventions. Yet this predictive power often comes at the cost of transparency: we rarely know which input features truly drive a model's predictions. Without such understanding, researchers cannot draw reliable scientific conclusions, practitioners cannot ensure fairness or accountability, and policy makers cannot trust or govern model-based decisions. Despite its importance, existing tools for assessing feature influence are limited -- most lack statistical guarantees, and many require costly retraining or surrogate modeling, making them impractical for large modern models. We introduce AICO, a broadly applicable framework that turns model interpretability into an efficient statistical exercise. AICO asks, for any trained regression or classification model, whether each feature genuinely improves model performance. It does so by masking the feature's information and measuring the resulting change in performance. The method delivers exact, finite-sample inference -- exact feature p-values and confidence intervals -- without any retraining, surrogate modeling, or distributional assumptions, making it feasible for today's large-scale algorithms. In both controlled experiments and real applications -- from credit scoring to mortgage-behavior prediction -- AICO consistently pinpoints the variables that drive model behavior, providing a fast and reliable path toward transparent and trustworthy machine learning.
- Abstract(参考訳): 機械学習は、科学、産業、政策分野における中心的なツールとなっている。
アルゴリズムは、化学特性を特定し、病気のリスクを予測し、スクリーン借り手を特定し、公衆の介入を誘導する。
しかし、この予測力は、しばしば透明性の犠牲を伴います。
このような理解がなければ、研究者は信頼できる科学的結論を導き出すことができず、実践者は公正さや説明責任を保証できず、政策立案者はモデルに基づく決定を信頼したり、支配したりすることはできない。
その重要性にもかかわらず、機能の影響を評価する既存のツールは限られており、統計的な保証がなく、多くはコストのかかるリトレーニングやサロゲートモデリングを必要としているため、大規模なモダンモデルでは実用的ではない。
AICOは、モデル解釈可能性を効率的な統計的エクササイズに変換する、広く適用可能なフレームワークです。
AICOは、トレーニングされた回帰モデルや分類モデルに対して、各機能がモデルのパフォーマンスを真に改善するかどうかを問う。
機能の情報を隠蔽し、結果として生じるパフォーマンスの変化を測定することで実現します。
この手法は、正確な有限サンプル推論 -- 正確な特徴p値と信頼区間 -- を、リトレーニング、代理モデリング、あるいは分布仮定なしで提供し、今日の大規模アルゴリズムで実現可能である。
AICOは、クレジットスコアリングから住宅ローンビヘイビア予測まで、制御された実験と実際のアプリケーションの両方において、モデルの振る舞いを駆動する変数を一貫して特定し、透明で信頼性の高い機械学習への高速で信頼性の高いパスを提供します。
関連論文リスト
- Testing Conditional Mean Independence Using Generative Neural Networks [8.323172773256449]
我々は,新しい集団CMI尺度とブートストラップモデルに基づくテスト手順を導入する。
深部生成ニューラルネットワークは、人口測定に関わる条件付き平均関数を推定するために用いられる。
論文 参考訳(メタデータ) (2025-01-28T23:35:24Z) - Testing and Improving the Robustness of Amortized Bayesian Inference for Cognitive Models [0.5223954072121659]
汚染物質観測とアウトリーチは、認知モデルのパラメータを推定する際にしばしば問題を引き起こす。
本研究では,アモルタイズされたベイズ推定を用いたパラメータ推定のロバスト性を検証・改善する。
提案手法は実装が簡単で実用的であり,外乱検出や除去が困難な分野に適用可能である。
論文 参考訳(メタデータ) (2024-12-29T21:22:24Z) - The Mirrored Influence Hypothesis: Efficient Data Influence Estimation by Harnessing Forward Passes [30.30769701138665]
我々は、訓練データとテストデータの間の相互影響を浮き彫りにして、ミラーレッド影響仮説を導入し、探求する。
具体的には、テスト予測に対するトレーニングデータの影響を評価することは、等価だが逆問題として再定義することができることを示唆している。
トレーニングポイント毎に前方パスとペアを組むことで,特定のテストサンプルの勾配を計算し,トレーニングデータの影響を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T03:43:05Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Efficient nonparametric statistical inference on population feature
importance using Shapley values [7.6146285961466]
本稿では,SPVIM(Shapley Population Variable Importance Measure)を用いた統計的推定手法を提案する。
真の SPVIM の計算複雑性は変数数とともに指数関数的に増大するが, ランダムサンプリングのみに基づく推定器を提案する。
提案手法はシミュレーションにおける有限サンプル性能が良好であり, 異なる機械学習アルゴリズムを適用した場合, ホスピタル内予測タスクでも同様の変数重要度推定が可能である。
論文 参考訳(メタデータ) (2020-06-16T19:47:11Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。