論文の概要: Empowering Small Language Models with Factual Hallucination-Aware Reasoning for Financial Classification
- arxiv url: http://arxiv.org/abs/2601.01378v1
- Date: Sun, 04 Jan 2026 05:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.264983
- Title: Empowering Small Language Models with Factual Hallucination-Aware Reasoning for Financial Classification
- Title(参考訳): 財務分類のためのファクチュアル・ハロシン化を考慮した小言語モデルの構築
- Authors: Han Yuan, Yilin Wu, Li Zhang, Zheng Ma,
- Abstract要約: スモール言語モデル(SLM)は、高速な推論とローカルなデプロイ容易性のため、財務分類にますます使われている。
事実の幻覚を緩和することは、SLMの財務分類を改善できるか?
AAAI (Association Identification, Automated Detection, Adaptive Inference) という3段階のパイプラインを提案する。
- 参考スコア(独自算出の注目度): 13.872021007148794
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Small language models (SLMs) are increasingly used for financial classification due to their fast inference and local deployability. However, compared with large language models, SLMs are more prone to factual hallucinations in reasoning and exhibit weaker classification performance. This raises a natural question: Can mitigating factual hallucinations improve SLMs' financial classification? To address this, we propose a three-step pipeline named AAAI (Association Identification, Automated Detection, and Adaptive Inference). Experiments on three representative SLMs reveal that: (1) factual hallucinations are positively correlated with misclassifications; (2) encoder-based verifiers effectively detect factual hallucinations; and (3) incorporating feedback on factual errors enables SLMs' adaptive inference that enhances classification performance. We hope this pipeline contributes to trustworthy and effective applications of SLMs in finance.
- Abstract(参考訳): スモール言語モデル(SLM)は、高速な推論とローカルなデプロイ容易性のため、財務分類にますます使われている。
しかし、大きな言語モデルと比較して、SLMは推論において現実の幻覚に傾向があり、より弱い分類性能を示す。
事実の幻覚を緩和することは、SLMの財務分類を改善できるか?
そこで本稿では,AAAI (Association Identification, Automated Detection, Adaptive Inference) という3段階のパイプラインを提案する。
3つの代表的なSLM実験では,(1)事実の幻覚は誤分類と正の相関がある,(2)エンコーダベースの検証器は事実の幻覚を効果的に検出し,(3)事実の誤りに対するフィードバックを取り入れることで,分類性能を高めるSLMの適応推論が可能となる。
我々は、このパイプラインが金融におけるSLMの信頼性と効果的な応用に寄与することを願っている。
関連論文リスト
- Counterfactual Probing for Hallucination Detection and Mitigation in Large Language Models [0.0]
本研究では,大規模言語モデルにおける幻覚の検出と緩和のための新しいアプローチである,対物探索を提案する。
提案手法は, 疑わしいが微妙な事実誤りを含む反事実文を動的に生成し, これらの摂動に対するモデルの感度を評価する。
論文 参考訳(メタデータ) (2025-08-03T17:29:48Z) - MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - Analyzing LLM Behavior in Dialogue Summarization: Unveiling Circumstantial Hallucination Trends [38.86240794422485]
対話要約のための大規模言語モデルの忠実度を評価する。
私たちの評価は幻覚を構成するものに関して微妙な点を呈する。
既存の指標より優れた微細な誤差検出のための2つのプロンプトベースのアプローチを導入する。
論文 参考訳(メタデータ) (2024-06-05T17:49:47Z) - Deficiency of Large Language Models in Finance: An Empirical Examination
of Hallucination [7.627664978437055]
幻覚は、大きな言語モデル(LLM)の根本的な欠如として認識されている
本稿では, LLMモデルにおける金融概念と用語の説明能力について実験的に検討する。
本研究では,少数ショット学習,コントラスト層(DoLa)による復号化,検索拡張生成(RAG)手法,クエリコマンドを生成する関数のプロンプトベースのツール学習方法など,4つの実践的手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-11-27T05:27:13Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Language Models Hallucinate, but May Excel at Fact Verification [89.0833981569957]
大規模言語モデル (LLM) はしばしば「ハロシン化 (hallucinate)」し、結果として非実効出力となる。
GPT-3.5でさえ、実際の出力は25%以下である。
これは、進捗を計測し、インセンティブを与えるために、事実検証の重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-23T04:39:01Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。