論文の概要: Explainable AI in Credit Risk Management
- arxiv url: http://arxiv.org/abs/2103.00949v1
- Date: Mon, 1 Mar 2021 12:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 04:26:57.076099
- Title: Explainable AI in Credit Risk Management
- Title(参考訳): 信用リスクマネジメントにおける説明可能なAI
- Authors: Branka Hadji Misheva, Joerg Osterrieder, Ali Hirsa, Onkar Kulkarni,
Stephen Fung Lin
- Abstract要約: 機械学習(ML)に基づく信用スコアリングモデルに対して,局所解釈モデル予測説明(LIME)とSHapley Additive exPlanations(SHAP)という2つの高度な説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) has created the single biggest technology
revolution the world has ever seen. For the finance sector, it provides great
opportunities to enhance customer experience, democratize financial services,
ensure consumer protection and significantly improve risk management. While it
is easier than ever to run state-of-the-art machine learning models, designing
and implementing systems that support real-world finance applications have been
challenging. In large part because they lack transparency and explainability
which are important factors in establishing reliable technology and the
research on this topic with a specific focus on applications in credit risk
management. In this paper, we implement two advanced post-hoc model agnostic
explainability techniques called Local Interpretable Model Agnostic
Explanations (LIME) and SHapley Additive exPlanations (SHAP) to machine
learning (ML)-based credit scoring models applied to the open-access data set
offered by the US-based P2P Lending Platform, Lending Club. Specifically, we
use LIME to explain instances locally and SHAP to get both local and global
explanations. We discuss the results in detail and present multiple comparison
scenarios by using various kernels available for explaining graphs generated
using SHAP values. We also discuss the practical challenges associated with the
implementation of these state-of-art eXplainabale AI (XAI) methods and document
them for future reference. We have made an effort to document every technical
aspect of this research, while at the same time providing a general summary of
the conclusions.
- Abstract(参考訳): 人工知能(AI)は、世界で最も大きなテクノロジー革命を生み出しました。
金融分野では、顧客エクスペリエンスの向上、金融サービスの民主化、消費者保護の確保、リスク管理の改善に優れた機会を提供します。
最先端の機械学習モデルを実行するのはこれまで以上に簡単ですが、現実世界の金融アプリケーションをサポートするシステムの設計と実装は困難でした。
信頼性の高い技術を確立する上で重要な要素である透明性と説明可能性の欠如と、このトピックに関する研究が、信用リスク管理のアプリケーションに特に焦点を当てているためである。
本稿では,米国P2PLending Platform, Lending Clubが提供しているオープンアクセスデータセットに適用した機械学習(ML)ベースの信用評価モデルに対して,LIME(Local Interpretable Model Agnostic Explanations)とSHAP(SHapley Additive ExPlanations)と呼ばれる2つの高度なポストホックモデル非依存説明可能性手法を実装した。
具体的には、LIMEを使用してインスタンスをローカルとSHAPで説明し、ローカルとグローバルの両方で説明します。
SHAP値を用いて生成されたグラフを説明するために利用可能なさまざまなカーネルを使用して、結果を詳細に議論し、複数の比較シナリオを提示する。
また、これらの最先端のeXplainabale AI(XAI)メソッドの実装に関する実践的課題についても論じ、今後の参照のためにそれらを文書化する。
我々は、この研究のすべての技術的側面を文書化する努力をしてきましたが、同時に結論の一般的な要約を提供します。
関連論文リスト
- Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - A Hypothesis on Good Practices for AI-based Systems for Financial Time
Series Forecasting: Towards Domain-Driven XAI Methods [0.0]
機械学習とディープラーニングは、財務予測や予測タスクでますます普及している。
これらのモデルは透明性と解釈可能性に欠けることが多く、金融のような繊細なドメインでの使用を困難にしている。
本稿では、金融のためのAIベースのシステムに説明可能性を展開するための優れた実践について考察する。
論文 参考訳(メタデータ) (2023-11-13T17:56:45Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection [0.0]
技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
横断的なデータの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらす可能性がある。
本稿では、データの自然時間順序を保存・活用する深層学習のための新しいXAI手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T12:04:01Z) - Analyzing Machine Learning Models for Credit Scoring with Explainable AI
and Optimizing Investment Decisions [0.0]
本稿では、説明可能なAI(XAI)の実践に関連する2つの異なる質問について検討する。
この研究では、単一分類器(論理回帰、決定木、LDA、QDA)、異種アンサンブル(AdaBoost、ランダムフォレスト)、シーケンシャルニューラルネットワークなど、さまざまな機械学習モデルを比較した。
LIMEとSHAPの2つの高度なポストホックモデル説明可能性技術を用いて、MLベースのクレジットスコアリングモデルを評価する。
論文 参考訳(メタデータ) (2022-09-19T21:44:42Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explaining Credit Risk Scoring through Feature Contribution Alignment
with Expert Risk Analysts [1.7778609937758323]
私たちは企業の信用スコアにフォーカスし、さまざまな機械学習モデルをベンチマークします。
目標は、企業が一定の期間内に金融問題を経験しているかどうかを予測するモデルを構築することです。
我々は、信用リスクの専門家とモデル機能属性説明との相違を強調した専門家による機能関連スコアを提供することで、光を当てる。
論文 参考訳(メタデータ) (2021-03-15T12:59:15Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z) - Explainable AI for Interpretable Credit Scoring [0.8379286663107844]
クレジットスコアリングは、金融の専門家がローン申請を受諾するかどうかについてより良い判断を下すのに役立つ。
アルゴリズムによる決定が一貫性のあるものであることを保証するため、規則はモデル解釈可能性の必要性を追加している。
正確かつ解釈可能な信用スコアモデルを提案する。
論文 参考訳(メタデータ) (2020-12-03T18:44:03Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。