論文の概要: Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models
- arxiv url: http://arxiv.org/abs/2310.00566v1
- Date: Sun, 1 Oct 2023 03:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:29:40.210204
- Title: Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models
- Title(参考訳): 多数の権限を与え、バイアスを負う: 大規模言語モデルによるジェネラリストクレジットスコアリング
- Authors: Duanyu Feng, Yongfu Dai, Jimin Huang, Yifang Zhang, Qianqian Xie,
Weiguang Han, Alejandro Lopez-Lira, Hao Wang
- Abstract要約: 既存のクレジットスコアリングモデルでは、知識ミオピアとタスク分離に起因する制限がしばしば示される。
クレジットアセスメントの目的でキュレートされた新しいベンチマークを導入し、特別な信用・リスクアセスメント大言語モデル(CALM)を微調整し、LCMが持つ可能性のあるバイアスを厳格に検証する。
本研究は, LLMが信用評価に革命をもたらす可能性, 多様な財務評価に適応性を示し, 公平な意思決定の重要性を強調した。
- 参考スコア(独自算出の注目度): 53.742730527280486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Credit and risk assessments are cornerstones of the financial landscape,
impacting both individual futures and broader societal constructs. Existing
credit scoring models often exhibit limitations stemming from knowledge myopia
and task isolation. In response, we formulate three hypotheses and undertake an
extensive case study to investigate LLMs' viability in credit assessment. Our
empirical investigations unveil LLMs' ability to overcome the limitations
inherent in conventional models. We introduce a novel benchmark curated for
credit assessment purposes, fine-tune a specialized Credit and Risk Assessment
Large Language Model (CALM), and rigorously examine the biases that LLMs may
harbor. Our findings underscore LLMs' potential in revolutionizing credit
assessment, showcasing their adaptability across diverse financial evaluations,
and emphasizing the critical importance of impartial decision-making in the
financial sector. Our datasets, models, and benchmarks are open-sourced for
other researchers.
- Abstract(参考訳): 信用とリスクアセスメントは金融の基盤であり、個々の未来とより広い社会構造の両方に影響を及ぼす。
既存のクレジットスコアリングモデルでは、知識ミオピアとタスク分離に起因する制限がしばしば示される。
そこで本研究では,3つの仮説を定式化し,LLMの信用評価における生存可能性について検討した。
我々の実証研究は、従来のモデルに固有の制限を克服するLLMの能力を明らかにする。
クレジットアセスメントの目的でキュレートされた新しいベンチマークを導入し、特別な信用・リスクアセスメント大言語モデル(CALM)を微調整し、LCMが持つ可能性のあるバイアスを精査する。
本研究は, LLMが信用評価に革命をもたらす可能性を明らかにし, 多様な財務評価に適応可能性を示し, 金融セクターにおける公平な意思決定の重要性を強調した。
私たちのデータセット、モデル、ベンチマークは、他の研究者のためにオープンソース化されています。
関連論文リスト
- Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Credit Risk Meets Large Language Models: Building a Risk Indicator from
Loan Descriptions in P2P Lending [1.4141453107129398]
ピアツーピア(P2P)融資は、借り手と貸し手とをオンラインプラットフォームを通じて結びつける独特の融資メカニズムとして登場した。
しかしながら、P2P貸与は情報非対称性の課題に直面している。
本稿では,ローン申請プロセスにおいて,借主が提供したテキスト記述を活用することで,この問題に対処する新たなアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-29T10:11:05Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - Are Large Language Models Reliable Judges? A Study on the Factuality
Evaluation Capabilities of LLMs [8.526956860672698]
大きな言語モデル(LLM)は、その顕著な能力のために注目を集めている。
本研究では,テキスト生成モデルにより生成された要約における事実整合性の信頼性評価としてのLCMの可能性について検討する。
論文 参考訳(メタデータ) (2023-11-01T17:42:45Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Through the Lens of Core Competency: Survey on Evaluation of Large
Language Models [27.271533306818732]
大規模言語モデル(LLM)は優れた性能と幅広い実用性を持っている。
既存の評価タスクは、現実世界のシナリオにおける幅広いアプリケーションに追いつくのは難しい。
LLMの4つのコア能力は、推論、知識、信頼性、安全性などである。
この能力アーキテクチャの下では、類似したタスクを組み合わせて対応する能力を反映し、新しいタスクをシステムに簡単に追加することができる。
論文 参考訳(メタデータ) (2023-08-15T17:40:34Z) - A Survey on Evaluation of Large Language Models [87.60417393701331]
大規模言語モデル(LLM)は、学術と産業の両方で人気が高まっている。
本稿では,評価方法,評価方法,評価方法の3つの重要な側面に焦点をあてる。
論文 参考訳(メタデータ) (2023-07-06T16:28:35Z) - KoLA: Carefully Benchmarking World Knowledge of Large Language Models [56.672981891304005]
我々は知識指向LLMアセスメントベンチマーク(KoLA)を構築した。
能力モデリングでは、人間の認知を模倣して知識関連能力の4段階の分類を作成し、19ドルのタスクをカバーしている。
データには、LLMによって事前訓練されたコーパスであるウィキペディアと、継続的に収集される新興コーパスの両方を使用し、目に見えないデータを扱う能力と知識の進化を評価することを目的としています。
論文 参考訳(メタデータ) (2023-06-15T17:20:46Z) - Bagging Supervised Autoencoder Classifier for Credit Scoring [3.5977219275318166]
クレジットスコアリングデータセットの不均衡の性質と、クレジットスコアリングデータセットの特徴の不均一性は、効果的なクレジットスコアリングモデルの開発と実装に困難をもたらす。
本稿では,主にスーパービジョンオートエンコーダの性能を活かしたBaging Supervised Autoencoder (BSAC)を提案する。
BSACはまた、過半数クラスのアンサンプに基づいて、Bagingプロセスの変種を採用することで、データ不均衡の問題にも対処する。
論文 参考訳(メタデータ) (2021-08-12T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。