論文の概要: FISCAL: Financial Synthetic Claim-document Augmented Learning for Efficient Fact-Checking
- arxiv url: http://arxiv.org/abs/2511.19671v1
- Date: Mon, 24 Nov 2025 20:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.149176
- Title: FISCAL: Financial Synthetic Claim-document Augmented Learning for Efficient Fact-Checking
- Title(参考訳): FISCAL:効率的なFact-Checkingのためのファイナンシャル・シンセティック・クレーム文書強化学習
- Authors: Rishab Sharma, Iman Saberi, Elham Alipour, Jie JW Wu, Fatemeh Fard,
- Abstract要約: FISCALは金融ファクトチェックに適した合成データを生成するためのフレームワークである。
MiniCheck-FISCALは数値ファイナンシャルクレームの軽量検証器である。
- 参考スコア(独自算出の注目度): 0.34797121357690153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Financial applications of large language models (LLMs) require factual reliability and computational efficiency, yet current systems often hallucinate details and depend on prohibitively large models. We propose FISCAL (Financial Synthetic Claim-Document Augmented Learning), a modular framework for generating synthetic data tailored to financial fact-checking. Using FISCAL, we generate a dataset called FISCAL-data and use it to train MiniCheck-FISCAL, a lightweight verifier for numerical financial claims. MiniCheck-FISCAL outperforms its baseline, surpasses GPT-3.5 Turbo and other open-source peers of similar size, and approaches the accuracy of much larger systems (20x), such as Mixtral-8x22B and Command R+. On external datasets FinDVer and Fin-Fact, it rivals GPT-4o and Claude-3.5 while outperforming Gemini-1.5 Flash. These results show that domain-specific synthetic data, combined with efficient fine-tuning, enables compact models to achieve state-of-the-art accuracy, robustness, and scalability for practical financial AI. The dataset and scripts are available in the project repository (link provided in the paper).
- Abstract(参考訳): 大規模言語モデル(LLM)の財務的応用は事実的信頼性と計算効率を必要とするが、現在のシステムはしばしば詳細を幻覚させ、違法な大規模モデルに依存している。
金融ファクトチェックに適した合成データを生成するためのモジュラーフレームワークであるFISCAL(Financial Synthetic Claim-Document Augmented Learning)を提案する。
FISCALを用いて、FISCALデータと呼ばれるデータセットを生成し、数値ファイナンシャルクレーム用の軽量検証器であるMiniCheck-FISCALを訓練する。
MiniCheck-FISCALはベースラインを上回り、GPT-3.5 Turboや他の同様のサイズのオープンソースピアを上回り、Mixtral-8x22BやCommand R+のようなより大きなシステム(20倍)の精度に近づいた。
FinDVerやFin-Factといった外部データセットでは、GPT-4oやClaude-3.5と競合し、Gemini-1.5 Flashを上回っている。
これらの結果は、ドメイン固有の合成データと効率的な微調整を組み合わせることで、実用的な財務AIの最先端の精度、堅牢性、スケーラビリティをコンパクトモデルで実現できることを示している。
データセットとスクリプトはプロジェクトリポジトリ(リンク)で入手できる。
関連論文リスト
- Information Capacity: Evaluating the Efficiency of Large Language Models via Text Compression [53.39128997308138]
テキスト圧縮性能に基づくモデル効率の指標である情報容量を導入する。
主流のオープンソースモデルに対する実証的な評価は、シリーズ内のさまざまなサイズのモデルが一貫した情報容量を示すことを示している。
情報容量の特徴的な特徴は、入力と出力の両方のトークン数に影響を与えるトークン化効率が組み込まれていることである。
論文 参考訳(メタデータ) (2025-11-11T10:07:32Z) - Better with Less: Small Proprietary Models Surpass Large Language Models in Financial Transaction Understanding [1.4125114383423856]
本稿では, 3種類のトランスフォーマーモデルの評価実験を行い, 事前学習型LLM, 微調整型LLM, およびスクラッチから開発した小型プロプライエタリモデルについて述べる。
本研究は,ドメイン固有のニーズに基づいたモデル選択の重要性を強調した。
論文 参考訳(メタデータ) (2025-09-30T05:23:08Z) - Towards a Comprehensive Scaling Law of Mixture-of-Experts [54.117786590884776]
本論文では,すべての重要な要因を考慮に入れた総合的かつ正確なMoEスケーリング法を提案する。
我々の結果は、$G$と$S$の最適設定が、モデルアーキテクチャとデータサイズの両方に依存しないことを示しています。
提案したMoEスケーリング法則は,将来のMoEモデル設計およびトレーニングを促進するための,正確かつ洞察に富んだガイダンスとして機能する可能性がある。
論文 参考訳(メタデータ) (2025-09-28T06:35:34Z) - FAITH: A Framework for Assessing Intrinsic Tabular Hallucinations in Finance [3.565466729914703]
金融に大規模言語モデル(LLM)をデプロイする上で、幻覚は依然として重要な課題である。
金融LLMにおける内因性幻覚を評価するための厳密でスケーラブルなフレームワークを開発する。
私たちの仕事は、より信頼性が高く信頼性の高い財務生成AIシステムを構築するための重要なステップとして役立ちます。
論文 参考訳(メタデータ) (2025-08-07T09:37:14Z) - Enhancing TinyBERT for Financial Sentiment Analysis Using GPT-Augmented FinBERT Distillation [0.0]
本研究では,大規模言語モデル(LLM)の生成能力を生かして,ドメイン固有の学習データを生成することを提案する。
この研究は、金融感情分析用に微調整されたBERTモデルであるFinBERTを強化し、コンパクトトランスモデルであるTinyFinBERTを開発することを目的としている。
論文 参考訳(メタデータ) (2024-09-19T10:22:23Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - FinDiff: Diffusion Models for Financial Tabular Data Generation [5.824064631226058]
FinDiffは、さまざまな規制下流タスクのための現実世界の財務データを生成するために設計された拡散モデルである。
3つの実世界の財務データセットを用いて、最先端のベースラインモデルに対して評価される。
論文 参考訳(メタデータ) (2023-09-04T09:30:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。