論文の概要: Unlocking the Black Box: A Five-Dimensional Framework for Evaluating Explainable AI in Credit Risk
- arxiv url: http://arxiv.org/abs/2511.04980v1
- Date: Fri, 07 Nov 2025 04:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.677418
- Title: Unlocking the Black Box: A Five-Dimensional Framework for Evaluating Explainable AI in Credit Risk
- Title(参考訳): ブラックボックスのアンロック: 説明可能なAIを信用リスクで評価するための5次元フレームワーク
- Authors: Rongbin Ye, Jiaqi Chen,
- Abstract要約: 本稿では,「ブラックボックス」モデルと LIME や SHAP などの説明可能性フレームワークとのギャップを埋めることを目的としている。
著者は、これらのフレームワークを異なるモデルに適用し、より良い予測能力を持つより複雑なモデルを適用できることを実証している。
本研究は,金融規制下での高度かつ高性能なMLモデルの実現可能性を示す。
- 参考スコア(独自算出の注目度): 17.910002088282624
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The financial industry faces a significant challenge modeling and risk portfolios: balancing the predictability of advanced machine learning models, neural network models, and explainability required by regulatory entities (such as Office of the Comptroller of the Currency, Consumer Financial Protection Bureau). This paper intends to fill the gap in the application between these "black box" models and explainability frameworks, such as LIME and SHAP. Authors elaborate on the application of these frameworks on different models and demonstrates the more complex models with better prediction powers could be applied and reach the same level of the explainability, using SHAP and LIME. Beyond the comparison and discussion of performances, this paper proposes a novel five dimensional framework evaluating Inherent Interpretability, Global Explanations, Local Explanations, Consistency, and Complexity to offer a nuanced method for assessing and comparing model explainability beyond simple accuracy metrics. This research demonstrates the feasibility of employing sophisticated, high performing ML models in regulated financial environments by utilizing modern explainability techniques and provides a structured approach to evaluate the crucial trade offs between model performance and interpretability.
- Abstract(参考訳): 金融業界は、高度な機械学習モデルの予測可能性、ニューラルネットワークモデル、規制機関が要求する説明可能性(例えば、通貨・消費者金融保護局の会計官事務所など)のバランスをとるという、モデリングとリスクポートフォリオに直面する大きな課題に直面している。
本稿では,これらの「ブラックボックス」モデルと LIME や SHAP などの説明可能性フレームワークとのギャップを埋めることを目的としている。
著者らは、これらのフレームワークを異なるモデルに適用し、より良い予測能力を持つより複雑なモデルを適用し、SHAPとLIMEを使用して、説明可能性の同じレベルに達することを実証している。
性能の比較と議論の他に,本論文では,モデル説明可能性の評価・比較を行うニュアンスな手法を提供するために,インヒーレント解釈可能性,グローバル説明性,局所説明性,一貫性,複雑度を評価する新しい5次元フレームワークを提案する。
本研究は、近代的な説明可能性技術を利用して、規制金融環境における高度で高性能なMLモデルの導入の実現可能性を示し、モデル性能と解釈可能性の間の重要なトレードオフを評価するための構造的アプローチを提供する。
関連論文リスト
- Model Steering: Learning with a Reference Model Improves Generalization Bounds and Scaling Laws [52.10468229008941]
本稿では,戦略データの選択や重み付けを通じて,対象モデルのトレーニングを指導・強化するための基準として,訓練モデルを用いた新たな学習パラダイムを定式化する。
提案手法は,参照モデルを持たないトレーニングと比較して,一般化とデータの効率性を改善する理由に関する理論的知見を提供する。
これらの知見に基づいて,DRRho-CLIPと呼ばれる参照モデルを用いたコントラスト言語-画像事前学習手法を提案する。
論文 参考訳(メタデータ) (2025-05-10T16:55:03Z) - KACDP: A Highly Interpretable Credit Default Prediction Model [2.776411854233918]
本稿では,KAN(Kolmogorov-Arnold Networks)に基づく手法を提案する。
Kansは学習可能なアクティベーション機能を持ち、線形重みを持たない新しいタイプのニューラルネットワークアーキテクチャである。
実験により、KACDPモデルは、パフォーマンス指標において、メインストリームの信用デフォルト予測モデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-11-26T12:58:03Z) - Model-Agnostic Interpretation Framework in Machine Learning: A
Comparative Study in NBA Sports [0.2937071029942259]
本稿では,モデル性能と解釈可能性のトレードオフを整理する,革新的な枠組みを提案する。
我々のアプローチは高次元データに対するモジュラー操作を中心とし、解釈可能性を維持しながらエンドツーエンドの処理を可能にする。
我々は、我々のフレームワークを広範囲にテストし、計算効率と解釈可能性のバランスをとる上で、その優れた効果を検証した。
論文 参考訳(メタデータ) (2024-01-05T04:25:21Z) - Stable and Interpretable Deep Learning for Tabular Data: Introducing
InterpreTabNet with the Novel InterpreStability Metric [4.362293468843233]
分類精度と解釈可能性の両方を向上するモデルであるInterpreTabNetを導入する。
また,モデルの解釈可能性の安定性を定量的に評価する新しい評価指標であるInterpreStabilityを提案する。
論文 参考訳(メタデータ) (2023-10-04T15:04:13Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A Framework for Auditing Multilevel Models using Explainability Methods [2.578242050187029]
回帰の技術的評価のための監査フレームワークを提案する。
焦点は3つの側面、モデル、差別、透明性と説明責任である。
SHAP や LIME などの一般的な説明可能性法は,これらのモデルを解釈する際には精度が低いことが示されている。
論文 参考訳(メタデータ) (2022-07-04T17:53:21Z) - Designing Inherently Interpretable Machine Learning Models [0.0]
本質的には、MLモデルは透明性と説明可能性のために採用されるべきである。
モデルに依存しない説明性を持つブラックボックスモデルは、規制の精査の下ではより防御が難しい。
論文 参考訳(メタデータ) (2021-11-02T17:06:02Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。