論文の概要: FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
- arxiv url: http://arxiv.org/abs/2506.16123v1
- Date: Thu, 19 Jun 2025 08:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.994085
- Title: FinCoT: Grounding Chain-of-Thought in Expert Financial Reasoning
- Title(参考訳): FinCoT:専門家の金融共謀で一段落-関係者
- Authors: Natapong Nitarach, Warit Sirichotedumrong, Panop Pitchayarthorn, Pittawat Taveekitworachai, Potsawee Manakul, Kunat Pipatanakul,
- Abstract要約: FinCoTは、ドメイン固有の専門的財務推論からの洞察を取り入れた構造化チェーン・オブ・思想(CoT)の推進的アプローチである。
我々は10の金融ドメインにまたがる3つの主要なプロンプトスタイルとCFAスタイルの質問に対するFinCoTの評価を行った。
- 参考スコア(独自算出の注目度): 10.974906573239043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents FinCoT, a structured chain-of-thought (CoT) prompting approach that incorporates insights from domain-specific expert financial reasoning to guide the reasoning traces of large language models. We investigate that there are three main prompting styles in FinNLP: (1) standard prompting--zero-shot prompting; (2) unstructured CoT--CoT prompting without an explicit reasoning structure, such as the use of tags; and (3) structured CoT prompting--CoT prompting with explicit instructions or examples that define structured reasoning steps. Previously, FinNLP has primarily focused on prompt engineering with either standard or unstructured CoT prompting. However, structured CoT prompting has received limited attention in prior work. Furthermore, the design of reasoning structures in structured CoT prompting is often based on heuristics from non-domain experts. In this study, we investigate each prompting approach in FinNLP. We evaluate the three main prompting styles and FinCoT on CFA-style questions spanning ten financial domains. We observe that FinCoT improves performance from 63.2% to 80.5% and Qwen-2.5-7B-Instruct from 69.7% to 74.2%, while reducing generated tokens eight-fold compared to structured CoT prompting. Our findings show that domain-aligned structured prompts not only improve performance and reduce inference costs but also yield more interpretable and expert-aligned reasoning traces.
- Abstract(参考訳): 本稿では、ドメイン固有の専門的財務推論からの洞察を取り入れた構造化チェーン・オブ・シント(CoT)のアプローチであるFinCoTについて述べる。
FinNLPには,(1)標準プロンプト-ゼロショットプロンプト,(2)タグの使用などの明示的な推論構造を持たない非構造化CoT-CoTプロンプト,(3)構造化CoTプロンプト-CoTプロンプトという3つの主要なプロンプトスタイルがある。
これまでFinNLPは、標準または非構造化のCoTプロンプトによるプロンプトエンジニアリングに重点を置いてきた。
しかし、構造化CoTプロンプトは、以前の作業であまり注目されなかった。
さらに、構造化CoTプロンプトにおける推論構造の設計は、しばしば非ドメインの専門家によるヒューリスティックに基づいている。
本研究では、FinNLPにおける各プロンプトアプローチについて検討する。
我々は10の金融ドメインにまたがる3つの主要なプロンプトスタイルとCFAスタイルの質問に対するFinCoTの評価を行った。
We observed that FinCoT improveing performance to 63.2% to 80.5% and Qwen-2.5-7B- Instruct to 69.7% to 74.2%。
この結果から,ドメイン整合性のあるプロンプトは,性能の向上と推論コストの低減だけでなく,解釈性や専門家整合性を考慮した推論のトレースも得られることがわかった。
関連論文リスト
- A Hopfieldian View-based Interpretation for Chain-of-Thought Reasoning [48.51969964676017]
CoT(Chain-of-Thought)は、大規模言語モデルの推論性能を高める上で重要な位置を占めている。
本稿では,CoTの精度を制御するためのリード・アンド・コントロル手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T04:07:13Z) - Chain-of-Thought Reasoning Without Prompting [40.92854235219315]
CoT推論パスは、テキストデコーディングプロセスを変更するだけで、事前訓練された言語モデルから引き出すことができる。
復号経路におけるCoTの存在は、モデルの復号解に対する高い信頼と相関する。
論文 参考訳(メタデータ) (2024-02-15T18:55:41Z) - Promptly Predicting Structures: The Return of Inference [31.442123334313035]
ゼロショットと少数ショットの言語構造予測器を構築するためのフレームワークを提案する。
その結果, 整合性の維持は構造的に有効であるだけでなく, 性能も向上することがわかった。
論文 参考訳(メタデータ) (2024-01-12T20:08:39Z) - Stress Testing Chain-of-Thought Prompting for Large Language Models [0.16317061277456998]
本報告では,大規模言語モデル(LLM)の多段階推論能力を向上する上で,CoT(Chain-of-Thought)の有効性について検討する。
各種タスクにおけるGPT-3の性能に及ぼすCoT次数,CoT値,CoT演算子の影響を解析した。
論文 参考訳(メタデータ) (2023-09-28T17:21:33Z) - Unsupervised Chunking with Hierarchical RNN [62.15060807493364]
本稿では,非階層的手法で単語をグループ化する構文的タスクであるチャンキングに対する教師なしアプローチを紹介する。
本稿では,単語-チャンク・チャンク-文合成をモデル化した2層階層型階層型リカレントニューラルネットワーク(HRNN)を提案する。
CoNLL-2000データセットの実験では、既存の教師なし手法よりも顕著な改善が見られ、フレーズF1スコアが最大6ポイント向上した。
論文 参考訳(メタデータ) (2023-09-10T02:55:12Z) - Faithful Chain-of-Thought Reasoning [51.21714389639417]
CoT(Chain-of-Thought)は言語モデル(LM)のパフォーマンスを様々な推論タスクで向上させる。
翻訳と問題解決という2つの段階を含む推論フレームワークであるFithful CoTを提案する。
このことは、推論連鎖が最終回答の忠実な説明を提供することを保証している。
論文 参考訳(メタデータ) (2023-01-31T03:04:26Z) - Towards Understanding Chain-of-Thought Prompting: An Empirical Study of
What Matters [82.84696222087396]
CoT(Chain-of-Thought)の促進により,大規模言語モデル(LLM)の多段階推論能力が劇的に向上する
無効な実演でもCoT推論が可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T05:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。