論文の概要: Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring
- arxiv url: http://arxiv.org/abs/2009.13384v1
- Date: Mon, 28 Sep 2020 15:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 21:49:47.617978
- Title: Transparency, Auditability and eXplainability of Machine Learning Models
in Credit Scoring
- Title(参考訳): クレデンシャル・スコーリングにおける機械学習モデルの透明性, 聴取性, eXplainability
- Authors: Michael B\"ucker and Gero Szepannek and Alicja Gosiewska and
Przemyslaw Biecek
- Abstract要約: 本稿では,信用スコアリングモデルを理解しやすくするために考慮すべきさまざまな次元について検討する。
本稿では,クレジットスコアにどのように適用できるか,そしてスコアカードの解釈可能性と比較する方法について概説する。
- 参考スコア(独自算出の注目度): 4.370097023410272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major requirement for credit scoring models is to provide a maximally
accurate risk prediction. Additionally, regulators demand these models to be
transparent and auditable. Thus, in credit scoring, very simple predictive
models such as logistic regression or decision trees are still widely used and
the superior predictive power of modern machine learning algorithms cannot be
fully leveraged. Significant potential is therefore missed, leading to higher
reserves or more credit defaults. This paper works out different dimensions
that have to be considered for making credit scoring models understandable and
presents a framework for making ``black box'' machine learning models
transparent, auditable and explainable. Following this framework, we present an
overview of techniques, demonstrate how they can be applied in credit scoring
and how results compare to the interpretability of score cards. A real world
case study shows that a comparable degree of interpretability can be achieved
while machine learning techniques keep their ability to improve predictive
power.
- Abstract(参考訳): 信用スコアリングモデルの主要な要件は、最大限正確なリスク予測を提供することである。
さらに、規制当局はこれらのモデルを透明で監査可能であるように要求している。
したがって、クレジットスコアリングでは、ロジスティック回帰や決定木のような非常に単純な予測モデルが依然として広く使われており、現代の機械学習アルゴリズムの優れた予測能力は十分に活用できない。
そのため、大きな潜在能力が失われ、リザーブやクレジットのデフォルトが高くなる。
本稿では、クレジットスコアリングモデルを理解可能にするために考慮すべき異なる次元を取り上げ、‘ブラックボックス’の機械学習モデルを透過的かつ監査可能かつ説明可能なものにするためのフレームワークを提案する。
この枠組みに従い,信用スコアにどのように適用できるか,また,スコアカードの解釈可能性と結果の比較について概説する。
実世界のケーススタディでは、機械学習技術が予測能力を向上させる能力を維持しながら、同等の解釈可能性を達成することができる。
関連論文リスト
- Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Predicting Credit Risk for Unsecured Lending: A Machine Learning
Approach [0.0]
本研究は、無担保貸付(クレディットカード)の信用デフォルトを予測するための、同時代の信用評価モデルを構築することを目的とする。
本研究は,光グラディエントブースティングマシン(LGBM)モデルにより,学習速度の向上,効率の向上,データボリュームの大規模化を実現していることを示す。
このモデルの導入により、商業融資機関や銀行の意思決定者に対する信用デフォルトのより良いタイムリーな予測が可能になると期待している。
論文 参考訳(メタデータ) (2021-10-05T17:54:56Z) - Look Who's Talking: Interpretable Machine Learning for Assessing Italian
SMEs Credit Default [0.0]
本稿では、モデル企業のデフォルト予測に対するモデルに依存しないアプローチに依存する。
2つの機械学習アルゴリズム(eXtreme Gradient BoostingとFeedForward Neural Network)を3つの標準判別モデルと比較する。
以上の結果から, イタリアの中小企業製造業は, eXtreme Gradient Boosting アルゴリズムにより, 総合的な分類能力の恩恵を受けていることが示唆された。
論文 参考訳(メタデータ) (2021-08-31T15:11:17Z) - Enabling Machine Learning Algorithms for Credit Scoring -- Explainable
Artificial Intelligence (XAI) methods for clear understanding complex
predictive models [2.1723750239223034]
本稿では,様々な予測モデル(論理回帰,ロジスティック回帰,エビデンス変換の重み付け,現代の人工知能アルゴリズム)を比較し,先進木モデルがクライアントデフォルトの予測に最適であることを示す。
また,信用リスク実践者に対して,それらを解釈し,よりアクセスしやすいものにするための手法を用いて,高度なモデルを強化する方法を示す。
論文 参考訳(メタデータ) (2021-04-14T09:44:04Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Explainable AI for Interpretable Credit Scoring [0.8379286663107844]
クレジットスコアリングは、金融の専門家がローン申請を受諾するかどうかについてより良い判断を下すのに役立つ。
アルゴリズムによる決定が一貫性のあるものであることを保証するため、規則はモデル解釈可能性の必要性を追加している。
正確かつ解釈可能な信用スコアモデルを提案する。
論文 参考訳(メタデータ) (2020-12-03T18:44:03Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - A Hierarchy of Limitations in Machine Learning [0.0]
本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
論文 参考訳(メタデータ) (2020-02-12T19:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。