論文の概要: Evaluating Large Language Models for Stance Detection on Financial Targets from SEC Filing Reports and Earnings Call Transcripts
- arxiv url: http://arxiv.org/abs/2510.23464v1
- Date: Mon, 27 Oct 2025 16:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.603597
- Title: Evaluating Large Language Models for Stance Detection on Financial Targets from SEC Filing Reports and Earnings Call Transcripts
- Title(参考訳): SECファイリングレポートとEarnings Call Transcriptsによる財務目標のスタンス検出のための大規模言語モデルの評価
- Authors: Nikesh Gyawali, Doina Caragea, Alex Vasenkov, Cornelia Caragea,
- Abstract要約: 我々は,債務,1株当たり利益(EPS),販売という3つの中核的財務指標に着目したスタンス検出のための文レベルのコーパスを導入する。
文章は10-Kの年次報告とECTから抽出され, 高度なChatGPT-o3-proモデルを用いてスタンスにラベル付けされた。
このコーパスを用いて、ゼロショット、少数ショット、およびCoT(Chain-of-Thought)の促進戦略を用いて、現代大言語モデル(LLM)の体系的評価を行う。
- 参考スコア(独自算出の注目度): 45.13099538394587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial narratives from U.S. Securities and Exchange Commission (SEC) filing reports and quarterly earnings call transcripts (ECTs) are very important for investors, auditors, and regulators. However, their length, financial jargon, and nuanced language make fine-grained analysis difficult. Prior sentiment analysis in the financial domain required a large, expensive labeled dataset, making the sentence-level stance towards specific financial targets challenging. In this work, we introduce a sentence-level corpus for stance detection focused on three core financial metrics: debt, earnings per share (EPS), and sales. The sentences were extracted from Form 10-K annual reports and ECTs, and labeled for stance (positive, negative, neutral) using the advanced ChatGPT-o3-pro model under rigorous human validation. Using this corpus, we conduct a systematic evaluation of modern large language models (LLMs) using zero-shot, few-shot, and Chain-of-Thought (CoT) prompting strategies. Our results show that few-shot with CoT prompting performs best compared to supervised baselines, and LLMs' performance varies across the SEC and ECT datasets. Our findings highlight the practical viability of leveraging LLMs for target-specific stance in the financial domain without requiring extensive labeled data.
- Abstract(参考訳): 米国証券取引委員会(SEC)の決算報告と四半期決算報告書(ECT)は、投資家、監査人、規制当局にとって非常に重要である。
しかし、その長さ、財務用語、ニュアンス言語はきめ細かい分析を困難にしている。
金融分野における以前の感情分析では、大規模で高価なラベル付きデータセットが必要であり、特定の金融目標に対する文レベルのスタンスを困難にしていた。
本研究では,債務,1株当たり利益(EPS),販売という3つの中核的財務指標に着目したスタンス検出のための文レベルコーパスを導入する。
文章は10-Kの年次報告とECTから抽出され, 厳密な人的検証の下で, 高度なChatGPT-o3-proモデルを用いて, 姿勢(正, 負, 中立)をラベル付けした。
このコーパスを用いて、ゼロショット、少数ショット、CoT(Chain-of-Thought)の促進戦略を用いて、現代大言語モデル(LLM)の体系的評価を行う。
以上の結果から,CoTプロンプトは教師付きベースラインよりも優れており,LLMの性能はSECおよびECTデータセットによって異なることがわかった。
本研究は,LLMを大規模ラベル付きデータを必要とすることなく,金融分野における目標特定スタンスに活用することの実践的可能性を明らかにするものである。
関連論文リスト
- FinAgentBench: A Benchmark Dataset for Agentic Retrieval in Financial Question Answering [57.18367828883773]
FinAgentBenchは、ファイナンスにおける多段階推論によるエージェント検索を評価するためのベンチマークである。
このベンチマークは、S&P-500上場企業に関する26Kのエキスパートアノテート例から成っている。
我々は,最先端モデルの集合を評価し,対象の微調整がエージェント検索性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T22:15:22Z) - M$^3$FinMeeting: A Multilingual, Multi-Sector, and Multi-Task Financial Meeting Understanding Evaluation Dataset [18.752133381125564]
$texttM$3$FinMeeting$は、財務会議の理解のために設計された、多言語、マルチセクタ、マルチタスクのデータセットである。
まず、英語、中国語、日本語をサポートし、多様な言語文脈における金銭的議論の理解を深める。
第2に、グローバル産業分類基準(GICS)が定める様々な産業分野を包含する。
第3に、要約、質問回答(QA)ペア抽出、質問応答という3つのタスクが含まれており、より現実的で包括的な理解評価を促進する。
論文 参考訳(メタデータ) (2025-06-03T06:41:09Z) - FinTSB: A Comprehensive and Practical Benchmark for Financial Time Series Forecasting [58.70072722290475]
ファイナンシャル・タイム・シリーズ(FinTS)は、人間の脳を増強した意思決定の行動を記録する。
FinTSBは金融時系列予測のための総合的で実用的なベンチマークである。
論文 参考訳(メタデータ) (2025-02-26T05:19:16Z) - Large Language Model Adaptation for Financial Sentiment Analysis [2.0499240875882]
一般言語モデルは、金融に特化されたタスクでは不足する傾向にある。
1.5B未満のパラメータを持つ2つの基礎モデルは、幅広い戦略を用いて適応されている。
小型LLMは大規模モデルに匹敵する性能を有しつつ,パラメータやデータの観点からも効率がよいことを示す。
論文 参考訳(メタデータ) (2024-01-26T11:04:01Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Instruct-FinGPT: Financial Sentiment Analysis by Instruction Tuning of
General-Purpose Large Language Models [18.212210748797332]
本稿では,これらの問題に対処する簡易かつ効果的な命令チューニング手法を提案する。
実験では, 最先端の教師付き感情分析モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-22T03:56:38Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。