論文の概要: Interpretable LLMs for Credit Risk: A Systematic Review and Taxonomy
- arxiv url: http://arxiv.org/abs/2506.04290v2
- Date: Sat, 07 Jun 2025 12:46:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 11:53:35.401907
- Title: Interpretable LLMs for Credit Risk: A Systematic Review and Taxonomy
- Title(参考訳): 信用リスクに対するLLMの解釈 : システムレビューと分類学
- Authors: Muhammed Golec, Maha AlabdulJalil,
- Abstract要約: 大規模言語モデル(LLM)は、財務文書の分析を通じて信用リスクの評価を可能にする。
本稿では、信用リスク推定におけるLSMに基づくアプローチに着目した、最初の体系的レビューと分類について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLM), which have developed in recent years, enable credit risk assessment through the analysis of financial texts such as analyst reports and corporate disclosures. This paper presents the first systematic review and taxonomy focusing on LLMbased approaches in credit risk estimation. We determined the basic model architectures by selecting 60 relevant papers published between 2020-2025 with the PRISMA research strategy. And we examined the data used for scenarios such as credit default prediction and risk analysis. Since the main focus of the paper is interpretability, we classify concepts such as explainability mechanisms, chain of thought prompts and natural language justifications for LLM-based credit models. The taxonomy organizes the literature under four main headings: model architectures, data types, explainability mechanisms and application areas. Based on this analysis, we highlight the main future trends and research gaps for LLM-based credit scoring systems. This paper aims to be a reference paper for artificial intelligence and financial researchers.
- Abstract(参考訳): 近年発展してきたLarge Language Models (LLM) は、アナリストレポートや企業情報開示などの財務資料の分析を通じて、信用リスクの評価を可能にする。
本稿では、信用リスク推定におけるLSMに基づくアプローチに着目した、最初の体系的レビューと分類について述べる。
我々は,2020年から2025年にかけて発行された60の関連論文をPRISMA研究戦略で選択し,基本モデルアーキテクチャを決定した。
また,信用デフォルト予測やリスク分析などのシナリオで使用されるデータについて検討した。
本論文の主な焦点は解釈可能性であるので,LLMベースの信用モデルに対する説明可能性メカニズム,思考の連鎖,自然言語の正当化といった概念を分類する。
分類学は、モデルアーキテクチャ、データタイプ、説明可能性メカニズム、およびアプリケーション領域の4つの主要な見出しの下に文献を整理する。
本分析に基づき,LLMを用いた信用スコアシステムにおける今後のトレンドと研究ギャップを概説する。
本論文は,人工知能と金融研究者のための参考論文である。
関連論文リスト
- MASCA: LLM based-Multi Agents System for Credit Assessment [0.3277163122167434]
実世界の意思決定プロセスのミラー化による信用評価向上を目的とした,LLM駆動型マルチエージェントシステムMASCAを紹介する。
また,階層型マルチエージェントシステムにおけるシグナリングゲーム理論の視点を示し,その構造と相互作用に関する理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-07-30T15:19:38Z) - AI Analyst: Framework and Comprehensive Evaluation of Large Language Models for Financial Time Series Report Generation [16.88763856265673]
生成したレポート内の情報を分類する自動ハイライトシステムを導入する。
本実験は,実市場指標と合成時系列のデータの両方を用いて,協調的かつ情報的財務報告を作成できるLCMの能力を実証するものである。
論文 参考訳(メタデータ) (2025-07-01T12:57:18Z) - Integrating Large Language Models in Financial Investments and Market Analysis: A Survey [39.58317527488534]
大規模言語モデル (LLMs) は、投資戦略の分析能力を強化し、財政的な意思決定に用いられている。
本研究は、株式選択、リスクアセスメント、感情分析、トレーディング、財務予測における最近のLCMs研究の構造化されたレビューを提供する。
論文 参考訳(メタデータ) (2025-06-29T05:25:31Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Can LLMs be Scammed? A Baseline Measurement Study [0.0873811641236639]
様々な詐欺戦術に対するLarge Language Models(LLMs)の脆弱性を体系的に評価する。
まず、FINRA分類で同定された多様な詐欺カテゴリーを反映した37の明確に定義されたベース詐欺シナリオを組み込んだ。
第2に、汎用プロプライエタリ(GPT-3.5, GPT-4)とオープンソース(Llama)モデルを用いて、スカム検出における性能を解析する。
第三に、我々の研究は、詐欺戦術がLSMに対して最も効果的であるか、そして様々なペルソナの特徴や説得技術がこれらの脆弱性にどのように影響するかについての批判的な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-14T05:22:27Z) - Are LLMs Rational Investors? A Study on Detecting and Reducing the Financial Bias in LLMs [44.53203911878139]
大規模言語モデル(LLM)は、複雑な市場データとトレンドを解釈する金融分析において、ますます採用されている。
Financial Bias Indicators (FBI)は、Bias Unveiler、Bias Detective、Bias Tracker、Bias Antidoteといったコンポーネントを備えたフレームワークである。
我々は、23のLLMを評価し、財務因果知識に基づく非バイアス化手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T04:26:08Z) - Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models [53.620827459684094]
大規模言語モデル(LLM)は、複数のタスクにまたがる強力な一般化能力を持つ信用スコアリングタスクにおいて大きな可能性を秘めている。
クレジットスコアリングのための LLM を探索する,初のオープンソース包括的フレームワークを提案する。
そこで我々は,各種金融リスク評価タスクの煩雑な要求に合わせて,指導チューニングによる最初の信用・リスク評価大言語モデル(CALM)を提案する。
論文 参考訳(メタデータ) (2023-10-01T03:50:34Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。