論文の概要: What's the Price of Monotonicity? A Multi-Dataset Benchmark of Monotone-Constrained Gradient Boosting for Credit PD
- arxiv url: http://arxiv.org/abs/2512.17945v1
- Date: Sun, 14 Dec 2025 22:18:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.110935
- Title: What's the Price of Monotonicity? A Multi-Dataset Benchmark of Monotone-Constrained Gradient Boosting for Credit PD
- Title(参考訳): モノトニックシティの価格はどうだろう? クレジットPDのためのモノトーン制約によるグラディエントブースティングのマルチデータセットベンチマーク
- Authors: Petr Koklev,
- Abstract要約: 金融機関は、信用リスクのための機械学習モデルを展開する際に、予測精度と解釈可能性のトレードオフに直面している。
単調性制約はモデルの振る舞いをドメイン知識と整合させるが、その性能コストは十分に定量化されていない。
本稿では,5つの公開データセットと3つのライブラリにまたがって,既定の信用確率に対するモノトーン制約と非拘束勾配向上モデルのベンチマークを行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial institutions face a trade-off between predictive accuracy and interpretability when deploying machine learning models for credit risk. Monotonicity constraints align model behavior with domain knowledge, but their performance cost - the price of monotonicity - is not well quantified. This paper benchmarks monotone-constrained versus unconstrained gradient boosting models for credit probability of default across five public datasets and three libraries. We define the Price of Monotonicity (PoM) as the relative change in standard performance metrics when moving from unconstrained to constrained models, estimated via paired comparisons with bootstrap uncertainty. In our experiments, PoM in AUC ranges from essentially zero to about 2.9 percent: constraints are almost costless on large datasets (typically less than 0.2 percent, often indistinguishable from zero) and most costly on smaller datasets with extensive constraint coverage (around 2-3 percent). Thus, appropriately specified monotonicity constraints can often deliver interpretability with small accuracy losses, particularly in large-scale credit portfolios.
- Abstract(参考訳): 金融機関は、信用リスクのための機械学習モデルを展開する際に、予測精度と解釈可能性のトレードオフに直面している。
単調性制約はモデルの振る舞いをドメインの知識と一致させるが、そのパフォーマンスコスト(単調性価格)は十分に定量化されていない。
本稿では,5つの公開データセットと3つのライブラリにまたがって,既定の信用確率に対するモノトーン制約と非拘束勾配向上モデルのベンチマークを行う。
単調性(PoM)の価格を、制約のないモデルから制約のないモデルに移行する際の標準性能指標の相対的変化として定義し、ブートストラップの不確実性とペア比較により推定する。
私たちの実験では、AUCのPoMは基本的にゼロから約2.9%の範囲で、大きなデータセットでは制約はほとんどコストがかからない(通常0.2%未満で、0と区別できないことが多い)。
したがって、適切に指定された単調性制約は、特に大規模信用ポートフォリオにおいて、少ない精度の損失で解釈可能性をもたらすことがある。
関連論文リスト
- Modest-Align: Data-Efficient Alignment for Vision-Language Models [67.48633659305592]
クロスモーダルアライメントモデルは、リソース制約のある環境での運用において、過信と劣化したパフォーマンスに悩まされることが多い。
我々は,ロバスト性と効率性に配慮した軽量アライメントフレームワークであるModest-Alignを提案する。
本手法は,実世界の低リソースシナリオにおけるクロスモーダルアライメントを実現するための,実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T16:11:10Z) - End-to-End Large Portfolio Optimization for Variance Minimization with Neural Networks through Covariance Cleaning [0.0]
我々は,世界規模の最小分散ポートフォリオを提供する回転不変ニューラルネットワークを開発した。
この明示的な数学的写像は各加群の役割を明確に解釈できる。
単一モデルは数百株のパネルで校正でき、再訓練せずに1000米国株に適用される。
論文 参考訳(メタデータ) (2025-07-02T17:27:29Z) - IGNIS: A Robust Neural Network Framework for Constrained Parameter Estimation in Archimedean Copulas [0.0]
textbfIGNISは、データ駆動依存度からパラメータtheta$への直接的なロバストなマッピングを学習することで障壁をサイドステップする統合ニューラルネットワーク推定フレームワークである。
4つのファミリー(Gumbel、Joe、そして数値的に難しいA1/A2)でトレーニングされ、検証されたIGNISは、現実世界の財務および健康のデータセットに対して正確で安定した見積もりを提供する。
論文 参考訳(メタデータ) (2025-05-28T16:04:17Z) - Bayesian Deep Learning for Discrete Choice [0.0]
本稿では,ベイズ近似手法の統合に特化して設計されたディープラーニングモデルアーキテクチャを提案する。
提案モデルでは,データに制限がある場合,行動情報に基づく仮説が崩壊する。
本研究は、ニューヨーク市におけるモード選択データを用いた実証事例と、スイスの列車選択データに記述された嗜好データに基づく事例である。
論文 参考訳(メタデータ) (2025-05-23T16:33:47Z) - Quantifying Prediction Consistency Under Fine-Tuning Multiplicity in Tabular LLMs [10.494477811252034]
微調整多重度は分類タスクにおけるタブラル LLM に現れる。
我々の研究は、タブラルLLMにおける微調整多重性というこのユニークな挑戦を定式化する。
本稿では,コストのかかるモデル再訓練を伴わずに,個々の予測の一貫性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T22:22:09Z) - Language Model Cascades: Token-level uncertainty and beyond [65.38515344964647]
言語モデル(LM)の最近の進歩により、複雑なNLPタスクの品質が大幅に向上した。
Cascadingは、より好ましいコスト品質のトレードオフを達成するためのシンプルな戦略を提供する。
トークンレベルの不確実性を学習後遅延ルールに組み込むことで,単純な集約戦略を著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-04-15T21:02:48Z) - Certified Robust Models with Slack Control and Large Lipschitz Constants [102.69689641398227]
本稿では,2つの問題に対処するCalibrated Lipschitz-Margin Loss (CLL)を提案する。
第一に、一般的に使用されるマージン損失は、縮小する出力分布に対する罰則を調整しない。
第二に、$K$の最小化は過度に滑らかな決定関数をもたらす。
我々のCLLは、損失w.r.t.マージンとリプシッツ定数を明示的に調整することでこれらの問題に対処する。
論文 参考訳(メタデータ) (2023-09-12T12:23:49Z) - Bias-Aware Minimisation: Understanding and Mitigating Estimator Bias in
Private SGD [56.01810892677744]
DP-SGDにおいて,サンプルごとの勾配ノルムとプライベート勾配オラクルの推定バイアスの関連性を示す。
BAM(Bias-Aware Minimisation)を提案する。
論文 参考訳(メタデータ) (2023-08-23T09:20:41Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。