論文の概要: Could Large Language Models work as Post-hoc Explainability Tools in Credit Risk Models?
- arxiv url: http://arxiv.org/abs/2602.18895v1
- Date: Sat, 21 Feb 2026 16:35:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.379146
- Title: Could Large Language Models work as Post-hoc Explainability Tools in Credit Risk Models?
- Title(参考訳): 大規模言語モデルは信用リスクモデルにおけるポストホックな説明可能性ツールとして機能するのか?
- Authors: Wenxi Geng, Dingyuan Liu, Liya Li, Yiqing Wang,
- Abstract要約: ポストホックな説明責任は信用リスクモデルガバナンスの中心である。
本稿では,大規模言語モデル(LLM)が,コンテキスト内学習による信用リスク予測のためのポストホック説明可能性ツールとして機能するかどうかを検討する。
- 参考スコア(独自算出の注目度): 1.3253687170778101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-hoc explainability is central to credit risk model governance, yet widely used tools such as coefficient-based attributions and SHapley Additive exPlanations (SHAP) often produce numerical outputs that are difficult to communicate to non-technical stakeholders. This paper investigates whether large language models (LLMs) can serve as post-hoc explainability tools for credit risk predictions through in-context learning, focusing on two roles: translators and autonomous explainers. Using a personal lending dataset from LendingClub, we evaluate three commercial LLMs, including GPT-4-turbo, Claude Sonnet 4, and Gemini-2.0-Flash. Results provide strong evidence for the translator role. In contrast, autonomous explanations show low alignment with model-based attributions. Few-shot prompting improves feature overlap for logistic regression but does not consistently benefit XGBoost, suggesting that LLMs have limited capacity to recover non-linear, interaction-driven reasoning from prompt cues alone. Our findings position LLMs as effective narrative interfaces grounded in auditable model attributions, rather than as substitutes for post-hoc explainers in credit risk model governance. Practitioners should leverage LLMs to bridge the communication gap between complex model outputs and regulatory or business stakeholders, while preserving the rigor and traceability required by credit risk governance frameworks.
- Abstract(参考訳): ポストホックな説明責任は信用リスクモデルガバナンスの中心であるが、係数ベースの属性やSHAP(SHapley Additive ExPlanations)といった広く使われているツールは、技術的でないステークホルダーとコミュニケーションが難しい数値的なアウトプットを生成することが多い。
本稿では,大規模言語モデル(LLM)が,翻訳者と自律的説明者という2つの役割に焦点をあて,コンテキスト内学習による信用リスク予測のためのポストホック説明可能性ツールとして機能するかどうかを検討する。
LendingClubの個人貸出データセットを用いて,GPT-4-turbo,Claude Sonnet 4,Gemini-2.0-Flashの3つの商用LCMを評価した。
結果は翻訳者の役割の強い証拠となる。
対照的に、自律的な説明はモデルに基づく属性との整合性が低いことを示す。
プロンプトプロンプトはロジスティック回帰のために機能のオーバーラップを改善するが、XGBoostのメリットは一貫してない。
以上の結果から,LLMを信用リスクモデルガバナンスにおけるポストホック説明の代用としてではなく,監査可能なモデル属性に基づく効果的な物語インタフェースとして位置づけた。
リスク管理フレームワークが必要とする厳格さとトレーサビリティを保ちながら、複雑なモデル出力と規制やビジネスステークホルダー間のコミュニケーションギャップを埋めるために、実践者はLLMを利用するべきです。
関連論文リスト
- Understanding Structured Financial Data with LLMs: A Case Study on Fraud Detection [17.04809129025246]
FinFRE-RAGは、数値・分類属性のコンパクトなサブセットを自然言語にシリアライズするために重要誘導特徴量削減を適用した2段階のアプローチである。
LLMは人間の読みやすい説明を作成し、特徴分析を促進することができるため、詐欺分析者の手作業の負担を軽減できる可能性がある。
論文 参考訳(メタデータ) (2025-12-15T07:09:11Z) - Measuring What LLMs Think They Do: SHAP Faithfulness and Deployability on Financial Tabular Classification [4.0057196015831495]
大規模言語モデル(LLM)は分類タスクに大きな注目を集めている。
構造化データに対する信頼性は、特に金融リスク評価のような高リスクアプリケーションにおいて、まだ不明である。
本研究では, LLMを体系的に評価し, 財務分類タスクのSHAP値を生成する。
論文 参考訳(メタデータ) (2025-11-28T19:04:25Z) - Interpreting LLMs as Credit Risk Classifiers: Do Their Feature Explanations Align with Classical ML? [4.0057196015831495]
大言語モデル(LLM)は、ゼロショットプロンプトによる分類タスクのための古典的な機械学習モデルの柔軟な代替品として、ますます研究されている。
本研究では,ゼロショットLPMに基づく分類器と,現実のローンデフォルト予測タスクにおいて,最先端の勾配ブースティングモデルであるLightGBMとを体系的に比較する。
我々は,それらの予測性能を評価し,SHAPを用いて特徴属性を分析し,LLM生成自己説明の信頼性を評価する。
論文 参考訳(メタデータ) (2025-10-29T17:05:00Z) - MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - Unlocking the Potential of Model Merging for Low-Resource Languages [66.7716891808697]
大規模言語モデルを新しい言語に適応させるには、通常、継続事前訓練(CT)と、教師付き微調整(SFT)が含まれる。
我々は低リソース言語の代替としてモデルマージを提案し、異なる機能を持つモデルを追加トレーニングなしで単一のモデルに組み合わせる。
Llama-2-7Bをベースとした実験により、モデルマージはタスク解決能力の低い低リソース言語に対して、極めて少ないデータを持つシナリオにおいて、CT-then-SFTよりも優れていることが実証された。
論文 参考訳(メタデータ) (2024-07-04T15:14:17Z) - Credit Risk Meets Large Language Models: Building a Risk Indicator from Loan Descriptions in P2P Lending [1.1970409518725493]
Peer-to-peer (P2P) 貸与は、借り手と貸し手をオンラインプラットフォームを介して接続するが、重要な情報非対称性に悩まされる。
本稿では,テキスト中の文脈ニュアンスをキャプチャする能力で知られている大言語モデル(LLM)であるBERTを活用することで,この問題に対処する。
借り手が提供するローン記述を使って、デフォルトのローンと非デフォルトのローンを区別するためにBERTを微調整します。
論文 参考訳(メタデータ) (2024-01-29T10:11:05Z) - Unleashing the Power of Pre-trained Language Models for Offline Reinforcement Learning [50.9692060692705]
本稿では、オフラインRL用の決定変換器をベースとした一般的なフレームワークである、$textbfMo$tion Control(textbfLaMo$)のための$textbfLanguage Modelsを紹介する。
私たちのフレームワークは4つの重要なコンポーネントを強調しています。
逐次事前学習したLMを用いた決定変換器の初期化(2)LoRA微細調整法を用いて
特に,本手法は,限られたデータサンプルを持つシナリオにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-31T16:24:17Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。