論文の概要: RKEFino1: A Regulation Knowledge-Enhanced Large Language Model
- arxiv url: http://arxiv.org/abs/2506.05700v1
- Date: Fri, 06 Jun 2025 03:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.301438
- Title: RKEFino1: A Regulation Knowledge-Enhanced Large Language Model
- Title(参考訳): RKEFino1: 知識強化型大規模言語モデル
- Authors: Yan Wang, Yueru He, Ruoyu Xiang, Jeff Zhao,
- Abstract要約: 我々は、Fino上に構築された規制知識強化型金融推論モデルであるRKEFinoを提案する。
本稿では,2つのQAタスクと数理推論を定式化し,文と表の両方の財務要素をカバーする新しい数値的NERタスクを導入する。
コンプライアンスクリティカルな財務課題におけるRKEFino1の有効性と一般化能力について実験的に検証した。
- 参考スコア(独自算出の注目度): 3.3128149968030436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) hold great promise for financial applications but introduce critical accuracy and compliance challenges in Digital Regulatory Reporting (DRR). To address these issues, we propose RKEFino1, a regulation knowledge-enhanced financial reasoning model built upon Fino1, fine-tuned with domain knowledge from XBRL, CDM, and MOF. We formulate two QA tasks-knowledge-based and mathematical reasoning-and introduce a novel Numerical NER task covering financial entities in both sentences and tables. Experimental results demonstrate the effectiveness and generalization capacity of RKEFino1 in compliance-critical financial tasks. We have released our model on Hugging Face.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、金融アプリケーションに大きな期待を抱いているが、Digital Regulatory Reporting(DRR)において、重要な精度とコンプライアンスの課題を導入している。
これらの問題に対処するため、我々は、XBRL、CDM、MOFのドメイン知識を微調整した、Fino1上に構築された規制知識強化型金融推論モデルであるRKEFino1を提案する。
我々は,2つのQAタスク知識と数学的推論を定式化し,文と表の両方の財務要素をカバーする新しい数値的NERタスクを導入する。
コンプライアンスクリティカルな財務課題におけるRKEFino1の有効性と一般化能力について実験的に検証した。
私たちはHugging Faceでモデルをリリースしました。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - DianJin-R1: Evaluating and Enhancing Financial Reasoning in Large Language Models [13.567516575993546]
金融分野における大規模言語モデル(LLM)の推論強化フレームワークであるDianJin-R1を提案する。
我々のアプローチの中心は、CFLUE、FinQA、および独自コンプライアンスコーパス(中国コンプライアンスチェック、CCC)から構築された高品質なデータセットであるDianJin-R1-Dataである。
我々のモデルであるDianJin-R1-7BとDianJin-R1-32Bは、Qwen2.5-7B-InstructとQwen2.5-32B-Instructから、推論ステップと最終回答の両方を生成する構造化形式を用いて微調整される。
論文 参考訳(メタデータ) (2025-04-22T09:01:04Z) - LLMs Meet Finance: Fine-Tuning Foundation Models for the Open FinLLM Leaderboard [4.629032441868537]
我々はOpen FinLLM Leaderboardをベンチマークとして基礎モデルを微調整した。
我々は、金融能力を高めるために、教師付き微調整(SFT)、直接選好最適化(DPO)、強化学習(RL)などの手法を採用した。
論文 参考訳(メタデータ) (2025-04-17T17:42:02Z) - Fin-R1: A Large Language Model for Financial Reasoning through Reinforcement Learning [17.649686407321923]
我々は金融セクター向けに特別に設計された大規模言語モデルであるFin-R1を紹介する。
Fin-R1は2段階アーキテクチャを使用して構築され、DeepSeek-R1に基づいて蒸留および処理された金銭的推論データセットを活用する。
これはDeepSeek-R1に近いパフォーマンスを示し、パラメータサイズは70億で、さまざまな金銭的推論タスクにまたがっている。
論文 参考訳(メタデータ) (2025-03-20T15:46:18Z) - Fino1: On the Transferability of Reasoning Enhanced LLMs to Finance [32.516564836540745]
大規模言語モデル(LLM)は、強力な一般的な推論能力を示しているが、財務的推論におけるその効果はいまだに解明されていない。
我々は,4つの複雑な財務推論タスクにおいて,24の最先端の一般および推論に焦点を当てたLCMを評価した。
本稿では,Fino1-8BとFinoBの2つのドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2025-02-12T05:13:04Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。