論文の概要: Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts
- arxiv url: http://arxiv.org/abs/2103.08359v1
- Date: Mon, 15 Mar 2021 12:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 20:05:40.662092
- Title: Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts
- Title(参考訳): 専門家リスクアナリストによる属性アライメントによる信用リスク評価の解説
- Authors: Ayoub El Qadi, Natalia Diaz-Rodriguez, Maria Trocan and Thomas
Frossard
- Abstract要約: 私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
- 参考スコア(独自算出の注目度): 1.7778609937758323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Credit assessments activities are essential for financial institutions and
allow the global economy to grow. Building robust, solid and accurate models
that estimate the probability of a default of a company is mandatory for credit
insurance companies, moreover when it comes to bridging the trade finance gap.
Automating the risk assessment process will allow credit risk experts to reduce
their workload and focus on the critical and complex cases, as well as to
improve the loan approval process by reducing the time to process the
application. The recent developments in Artificial Intelligence are offering
new powerful opportunities. However, most AI techniques are labelled as
blackbox models due to their lack of explainability. For both users and
regulators, in order to deploy such technologies at scale, being able to
understand the model logic is a must to grant accurate and ethical decision
making. In this study, we focus on companies credit scoring and we benchmark
different machine learning models. The aim is to build a model to predict
whether a company will experience financial problems in a given time horizon.
We address the black box problem using eXplainable Artificial Techniques in
particular, post-hoc explanations using SHapley Additive exPlanations. We bring
light by providing an expert-aligned feature relevance score highlighting the
disagreement between a credit risk expert and a model feature attribution
explanation in order to better quantify the convergence towards a better
human-aligned decision making.
- Abstract(参考訳): 金融機関にとって信用評価活動は不可欠であり、グローバル経済の成長を可能にします。
企業のデフォルト確率を推定する堅牢で堅牢で正確なモデルを構築することは、信用保険会社にとって必須であり、さらに貿易金融のギャップを埋めることになる。
リスクアセスメントプロセスを自動化することで、信用リスクの専門家は業務負荷を減らし、重要かつ複雑なケースに集中し、アプリケーションを処理する時間を短縮することでローン承認プロセスを改善することができます。
人工知能の最近の発展は、新しい強力な機会を提供しています。
しかし、ほとんどのai技術は説明可能性の欠如によりブラックボックスモデルとして分類されている。
ユーザーと規制当局の両方にとって、そのような技術を大規模に展開するためには、モデルロジックを理解することが正確で倫理的な意思決定を付与する必要があります。
本研究では,企業のクレジットスコアリングに注目し,さまざまな機械学習モデルをベンチマークする。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は,eXplainable Artificial Techniquesを用いたブラックボックス問題,特にSHapley Additive exPlanationsを用いたポストホックな説明に対処する。
我々は、信用リスクエキスパートとモデル機能帰属説明の相違点を強調する専門家指向の機能関連スコアを提供することにより、より人間指向の意思決定に向けた収束をより定量化する。
関連論文リスト
- Explainable Automated Machine Learning for Credit Decisions: Enhancing
Human Artificial Intelligence Collaboration in Financial Engineering [0.0]
本稿では、金融工学領域における説明可能な自動機械学習(AutoML)の統合について検討する。
AutoMLは、クレジットスコアリングのための堅牢な機械学習モデルの開発を合理化する方法に重点を置いている。
この調査結果は、AI主導の金融決定の透明性と説明責任を改善する上で、説明可能なAutoMLの可能性を強調している。
論文 参考訳(メタデータ) (2024-02-06T08:47:16Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models [53.620827459684094]
大規模言語モデル(LLM)は、複数のタスクにまたがる強力な一般化能力を持つ信用スコアリングタスクにおいて大きな可能性を秘めている。
クレジットスコアリングのための LLM を探索する,初のオープンソース包括的フレームワークを提案する。
そこで我々は,各種金融リスク評価タスクの煩雑な要求に合わせて,指導チューニングによる最初の信用・リスク評価大言語モデル(CALM)を提案する。
論文 参考訳(メタデータ) (2023-10-01T03:50:34Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Enabling Machine Learning Algorithms for Credit Scoring -- Explainable
Artificial Intelligence (XAI) methods for clear understanding complex
predictive models [2.1723750239223034]
本稿では,様々な予測モデル(論理回帰,ロジスティック回帰,エビデンス変換の重み付け,現代の人工知能アルゴリズム)を比較し,先進木モデルがクライアントデフォルトの予測に最適であることを示す。
また,信用リスク実践者に対して,それらを解釈し,よりアクセスしやすいものにするための手法を用いて,高度なモデルを強化する方法を示す。
論文 参考訳(メタデータ) (2021-04-14T09:44:04Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Explainable AI in Credit Risk Management [0.0]
機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
論文 参考訳(メタデータ) (2021-03-01T12:23:20Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z) - Explainable AI for Interpretable Credit Scoring [0.8379286663107844]
クレジットスコアリングは、金融の専門家がローン申請を受諾するかどうかについてより良い判断を下すのに役立つ。
アルゴリズムによる決定が一貫性のあるものであることを保証するため、規則はモデル解釈可能性の必要性を追加している。
正確かつ解釈可能な信用スコアモデルを提案する。
論文 参考訳(メタデータ) (2020-12-03T18:44:03Z) - Adversarial Attacks on Machine Learning Systems for High-Frequency
Trading [55.30403936506338]
逆機械学習の観点から,アルゴリズム取引のバリュエーションモデルについて検討する。
攻撃コストを最小限に抑えるサイズ制約で、このドメインに特有の新たな攻撃を導入する。
本稿では、金融モデルのロバスト性について研究・評価するための分析ツールとして、これらの攻撃がどのように利用できるかについて論じる。
論文 参考訳(メタデータ) (2020-02-21T22:04:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。