論文の概要: Measuring the Driving Forces of Predictive Performance: Application to
Credit Scoring
- arxiv url: http://arxiv.org/abs/2212.05866v3
- Date: Tue, 27 Jun 2023 12:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 17:46:18.086871
- Title: Measuring the Driving Forces of Predictive Performance: Application to
Credit Scoring
- Title(参考訳): 予測性能の駆動力の測定:クレジット・スコーリングへの応用
- Authors: Hu\'e Sullivan, Hurlin Christophe, P\'erignon Christophe and Saurin
S\'ebastien
- Abstract要約: 信用スコアでは、機械学習モデルは標準パラメトリックモデルを上回ることが知られている。
本稿では、モデルに関連するコントリビューションにパフォーマンスメトリックを分解するXPER手法を紹介する。
モデル性能の驚くほど大きな部分を、少数の機能が説明できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In credit scoring, machine learning models are known to outperform standard
parametric models. As they condition access to credit, banking supervisors and
internal model validation teams need to monitor their predictive performance
and to identify the features with the highest impact on performance. To
facilitate this, we introduce the XPER methodology to decompose a performance
metric (e.g., AUC, $R^2$) into specific contributions associated with the
various features of a classification or regression model. XPER is theoretically
grounded on Shapley values and is both model-agnostic and performance
metric-agnostic. Furthermore, it can be implemented either at the model level
or at the individual level. Using a novel dataset of car loans, we decompose
the AUC of a machine-learning model trained to forecast the default probability
of loan applicants. We show that a small number of features can explain a
surprisingly large part of the model performance. Furthermore, we find that the
features that contribute the most to the predictive performance of the model
may not be the ones that contribute the most to individual forecasts (SHAP). We
also show how XPER can be used to deal with heterogeneity issues and
significantly boost out-of-sample performance.
- Abstract(参考訳): 信用スコアでは、機械学習モデルは標準パラメトリックモデルを上回ることが知られている。
クレジットへのアクセスを条件にするため、銀行監督と内部モデル検証チームは、予測パフォーマンスを監視し、パフォーマンスに最も影響した機能を特定する必要がある。
そこで本研究では,性能指標(auc,$r^2$など)を,分類や回帰モデルの様々な特徴に関連する特定の貢献に分解するxper手法を導入する。
XPERは理論上はShapley値に基づいており、モデル非依存とパフォーマンスメトリック非依存の両方である。
さらに、モデルレベルでも、個々のレベルでも実装できます。
自動車ローンの新たなデータセットを用いて、ローン申請者のデフォルト確率を予測するために訓練された機械学習モデルのAUCを分解する。
モデルパフォーマンスの驚くほど大きな部分を、少数の機能で説明できることを示しました。
さらに,モデルの予測性能に最も寄与する特徴は,個々の予測(SHAP)に最も寄与する特徴ではない可能性が示唆された。
また、XPERが異種問題に対処し、サンプル外のパフォーマンスを大幅に向上させる方法を示す。
関連論文リスト
- KACDP: A Highly Interpretable Credit Default Prediction Model [2.776411854233918]
本稿では,KAN(Kolmogorov-Arnold Networks)に基づく手法を提案する。
Kansは学習可能なアクティベーション機能を持ち、線形重みを持たない新しいタイプのニューラルネットワークアーキテクチャである。
実験により、KACDPモデルは、パフォーマンス指標において、メインストリームの信用デフォルト予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T12:58:03Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Characterizing Disparity Between Edge Models and High-Accuracy Base Models for Vision Tasks [5.081175754775484]
XDELTAは、高精度ベースモデルと計算効率が良いが低精度エッジモデルの違いを説明する、説明可能な新しいAIツールである。
我々は、XDELTAのモデル不一致を説明する能力をテストするための総合的な評価を行い、120万以上の画像と24のモデルを使用し、6人の参加者による実世界の展開を評価する。
論文 参考訳(メタデータ) (2024-07-13T22:05:58Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - Fine-Tuning Enhances Existing Mechanisms: A Case Study on Entity
Tracking [53.66999416757543]
本研究では,微調整が言語モデルに実装された内部メカニズムに与える影響について検討する。
微調整はモデルの機械的操作を変えるのではなく、強化する。
論文 参考訳(メタデータ) (2024-02-22T18:59:24Z) - Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines [0.0]
解釈性は法的、倫理的、実践的な理由において不可欠である。
高性能モデルは、冗長な特徴と単一機能支配との素早い相互作用に悩まされることがある。
本稿では,これらの課題に対処するための新しいアプローチとして,代替のクロスフィーチャー選択,アンサンブル機能,モデル構成変更手法について検討する。
論文 参考訳(メタデータ) (2023-07-17T13:47:41Z) - Feeding What You Need by Understanding What You Learned [54.400455868448695]
Machine Reading (MRC)は、与えられたテキストパスを理解し、それに基づいて質問に答える機能を明らかにする。
MRCの既存の研究は、Exact Matchのようなメトリクスによって評価されたパフォーマンスを改善するために、大規模なモデルとコーパスに大きく依存している。
モデル機能とデータ特性の深い理解は、適切なトレーニングデータでモデルをフィードするのに役立ちます。
論文 参考訳(メタデータ) (2022-03-05T14:15:59Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - PSD2 Explainable AI Model for Credit Scoring [0.0]
本研究の目的は、信用リスクモデルの予測精度を向上させるための高度な分析手法の開発と試験である。
このプロジェクトは、銀行関連のデータベースに説明可能な機械学習モデルを適用することに焦点を当てている。
論文 参考訳(メタデータ) (2020-11-20T12:12:38Z) - Model Embedding Model-Based Reinforcement Learning [4.566180616886624]
モデルベース強化学習(MBRL)は、モデルフリー強化学習(MFRL)よりもサンプル効率が優れていることを示す。
しかし、データ生成の容易さとモデルのバイアスとの間には、依然としてトレードオフがある。
本稿では,確率的強化学習の枠組みとして,シンプルでエレガントなモデル埋め込み型強化学習(MEMB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T15:10:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。