論文の概要: Monotonic Neural Additive Models: Pursuing Regulated Machine Learning
Models for Credit Scoring
- arxiv url: http://arxiv.org/abs/2209.10070v1
- Date: Wed, 21 Sep 2022 02:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:19:11.854762
- Title: Monotonic Neural Additive Models: Pursuing Regulated Machine Learning
Models for Credit Scoring
- Title(参考訳): モノトニック・ニューラル付加モデル:クレジット・スコーリングのための規則付き機械学習モデルの提案
- Authors: Dangxing Chen and Weicheng Ye
- Abstract要約: 本稿では,ニューラルネットワークアーキテクチャを簡素化し,モノトニック性を強制することによって,規制要件を満たす新しいモノトニックニューラルネットワークモデルを提案する。
我々の新しいモデルは、ブラックボックスの完全接続ニューラルネットワークと同じくらい正確であり、高度に正確で規制された機械学習方法を提供する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The forecasting of credit default risk has been an active research field for
several decades. Historically, logistic regression has been used as a major
tool due to its compliance with regulatory requirements: transparency,
explainability, and fairness. In recent years, researchers have increasingly
used complex and advanced machine learning methods to improve prediction
accuracy. Even though a machine learning method could potentially improve the
model accuracy, it complicates simple logistic regression, deteriorates
explainability, and often violates fairness. In the absence of compliance with
regulatory requirements, even highly accurate machine learning methods are
unlikely to be accepted by companies for credit scoring. In this paper, we
introduce a novel class of monotonic neural additive models, which meet
regulatory requirements by simplifying neural network architecture and
enforcing monotonicity. By utilizing the special architectural features of the
neural additive model, the monotonic neural additive model penalizes
monotonicity violations effectively. Consequently, the computational cost of
training a monotonic neural additive model is similar to that of training a
neural additive model, as a free lunch. We demonstrate through empirical
results that our new model is as accurate as black-box fully-connected neural
networks, providing a highly accurate and regulated machine learning method.
- Abstract(参考訳): クレジットデフォルトリスクの予測は数十年にわたって活発な研究分野となっている。
歴史的にロジスティック回帰は、透明性、説明可能性、公平性といった規制要件に準拠しているため、主要なツールとして使われてきた。
近年、研究者は予測精度を向上させるために複雑で高度な機械学習手法をますます利用してきた。
機械学習手法はモデルの精度を向上する可能性があるが、単純なロジスティック回帰を複雑にし、説明性が低下し、しばしば公正性に反する。
規制要件の遵守がなければ、高い精度の機械学習手法でさえ、クレジットスコアリングの企業によって受け入れられる可能性は低い。
本稿では,ニューラルネットワークアーキテクチャを簡素化し,モノトニック性を強制することによって,規制要件を満たす新しいモノトニックニューラルネットワーク付加モデルを提案する。
神経添加モデルの特殊な構造的特徴を利用して、単調神経添加モデルは単調性侵害を効果的にペナルティ化する。
したがって、単調神経添加モデルの訓練の計算コストは、自由ランチとしての神経添加モデルの訓練と類似している。
実験結果から,本モデルがブラックボックス完全接続ニューラルネットワークと同じくらい正確であることを示し,高精度かつ規制された機械学習手法を提案する。
関連論文リスト
- Harnessing Neural Unit Dynamics for Effective and Scalable Class-Incremental Learning [38.09011520275557]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに、非定常データストリームから新しいクラスを学ぶためのモデルをトレーニングすることを目的としている。
本稿では、ニューラルネットワークの動作をCILに適応させるニューラルネットワークユニットダイナミクスを調整し、新しい種類のコネクショナリストモデルを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:47:03Z) - Learning to Continually Learn with the Bayesian Principle [36.75558255534538]
本研究では、ニューラルネットワークの強力な表現力と、忘れることに対する単純な統計モデルの堅牢性を組み合わせたメタラーニングパラダイムを採用する。
ニューラルネットワークは継続学習中に固定されているため、破滅的な忘れ物から保護されている。
論文 参考訳(メタデータ) (2024-05-29T04:53:31Z) - Extreme sparsification of physics-augmented neural networks for
interpretable model discovery in mechanics [0.0]
本稿では,L0$-regularizationのスムーズなバージョンを用いて,正規化された物理拡張ニューラルネットワークモデルを訓練することを提案する。
本手法は, 可圧縮・非圧縮熱力学, 降伏関数, 弾塑性の硬化モデルに対して, 解釈可能かつ信頼性の高いモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T16:28:58Z) - Epistemic Modeling Uncertainty of Rapid Neural Network Ensembles for
Adaptive Learning [0.0]
新しいタイプのニューラルネットワークは、高速ニューラルネットワークパラダイムを用いて提示される。
提案したエミュレータを組み込んだニューラルネットワークは,予測精度を損なうことなく,ほぼ瞬時に学習できることが判明した。
論文 参考訳(メタデータ) (2023-09-12T22:34:34Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Stabilizing Machine Learning Prediction of Dynamics: Noise and
Noise-inspired Regularization [58.720142291102135]
近年、機械学習(ML)モデルはカオス力学系の力学を正確に予測するために訓練可能であることが示されている。
緩和技術がなければ、この技術は人工的に迅速にエラーを発生させ、不正確な予測と/または気候不安定をもたらす可能性がある。
トレーニング中にモデル入力に付加される多数の独立雑音実効化の効果を決定論的に近似する正規化手法であるLinearized Multi-Noise Training (LMNT)を導入する。
論文 参考訳(メタデータ) (2022-11-09T23:40:52Z) - Online model error correction with neural networks in the incremental
4D-Var framework [0.0]
我々は,オンラインモデル誤り訂正のためのニューラルネットワークのトレーニングに使用できる,新しい弱制約4D-Varの定式化を開発した。
本手法はECMWFオブジェクト指向予測システムに実装されている。
その結果,オンライン学習が有効であることが確認され,オフライン学習よりも精度の高いモデル誤差補正が得られた。
論文 参考訳(メタデータ) (2022-10-25T07:45:33Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。