論文の概要: Are Large Language Models Good In-context Learners for Financial Sentiment Analysis?
- arxiv url: http://arxiv.org/abs/2503.04873v1
- Date: Thu, 06 Mar 2025 16:38:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:55.980835
- Title: Are Large Language Models Good In-context Learners for Financial Sentiment Analysis?
- Title(参考訳): 大規模言語モデルは財務感覚分析に適した文脈内学習者か?
- Authors: Xinyu Wei, Luojia Liu,
- Abstract要約: 近年、数十億のパラメータを持つ大規模言語モデル (FSAM) が、ドメイン固有のデータ手法を探索する創発的な能力を示している。
本稿では,新たな文書の感情分析に対して,文書-知覚対の一般的な文脈内デモによって,LLMの学習が課題に対処できるかどうかについて,情報的な洞察を与えることができるかどうか,という根本的な疑問に答えることを目的とする。
- 参考スコア(独自算出の注目度): 0.6813925418351435
- License:
- Abstract: Recently, large language models (LLMs) with hundreds of billions of parameters have demonstrated the emergent ability, surpassing traditional methods in various domains even without fine-tuning over domain-specific data. However, when it comes to financial sentiment analysis (FSA)$\unicode{x2013}$a fundamental task in financial AI$\unicode{x2013}$these models often encounter various challenges, such as complex financial terminology, subjective human emotions, and ambiguous inclination expressions. In this paper, we aim to answer the fundamental question: whether LLMs are good in-context learners for FSA? Unveiling this question can yield informative insights on whether LLMs can learn to address the challenges by generalizing in-context demonstrations of financial document-sentiment pairs to the sentiment analysis of new documents, given that finetuning these models on finance-specific data is difficult, if not impossible at all. To the best of our knowledge, this is the first paper exploring in-context learning for FSA that covers most modern LLMs (recently released DeepSeek V3 included) and multiple in-context sample selection methods. Comprehensive experiments validate the in-context learning capability of LLMs for FSA.
- Abstract(参考訳): 近年、数十億のパラメータを持つ大規模言語モデル (LLM) は、ドメイン固有のデータを微調整することなく、様々なドメインの伝統的な手法を超越した創発的能力を示している。
しかし、金融感情分析(FSA)$\unicode{x2013}$a fundamental task in financial AI$\unicode{x2013}$これらのモデルは、複雑な金融用語、主観的な人間の感情、曖昧な傾き表現など、様々な課題に直面することが多い。
本稿では,LLMがFSAに適した文脈内学習者であるかどうかという根本的な疑問に答えることを目的とする。
金融特化データ上でこれらのモデルを微調整することは、不可能ではないとしても困難であるとして、新たな文書の感情分析に財務文書と感性ペアの文脈内デモを一般化することで、LCMが課題に対処できるかどうかについての情報的な洞察を得ることができる。
我々の知る限りでは、この論文は、ほとんどの現代のLCM(最近リリースされたDeepSeek V3を含む)と複数のインコンテキストサンプル選択方法をカバーする、FSAのためのインコンテキスト学習を探求する最初の論文である。
総合的な実験は、FSAのためのLLMの文脈内学習能力を検証する。
関連論文リスト
- AlphaFin: Benchmarking Financial Analysis with Retrieval-Augmented Stock-Chain Framework [48.3060010653088]
我々はAlphaFinデータセットをリリースし、従来の研究データセット、リアルタイム財務データ、手書きのチェーン・オブ・プリート(CoT)データを組み合わせています。
次に、AlphaFinデータセットを使用して、金融分析タスクを効果的に処理するために、Stock-Chainと呼ばれる最先端の手法をベンチマークします。
論文 参考訳(メタデータ) (2024-03-19T09:45:33Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Large Language Model Adaptation for Financial Sentiment Analysis [2.0499240875882]
一般言語モデルは、金融に特化されたタスクでは不足する傾向にある。
1.5B未満のパラメータを持つ2つの基礎モデルは、幅広い戦略を用いて適応されている。
小型LLMは大規模モデルに匹敵する性能を有しつつ,パラメータやデータの観点からも効率がよいことを示す。
論文 参考訳(メタデータ) (2024-01-26T11:04:01Z) - Pre-trained Large Language Models for Financial Sentiment Analysis [10.683185786541596]
オープンソースのLlama2-7Bモデル(2023)を教師付き微調整(SFT)技術で適用する。
我々の手法は従来の最先端のアルゴリズムよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-01-10T15:27:41Z) - Data-Centric Financial Large Language Models [27.464319154543173]
大規模言語モデル(LLM)は自然言語のタスクを約束するが、金融のような複雑なドメインに直接適用した場合に苦労する。
我々は、LLMが金融業務をよりうまく扱えるようにするために、データ中心のアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-07T04:53:31Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Instruct-FinGPT: Financial Sentiment Analysis by Instruction Tuning of
General-Purpose Large Language Models [18.212210748797332]
本稿では,これらの問題に対処する簡易かつ効果的な命令チューニング手法を提案する。
実験では, 最先端の教師付き感情分析モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-22T03:56:38Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - FinQA: A Dataset of Numerical Reasoning over Financial Data [52.7249610894623]
我々は、大量の財務文書の分析を自動化することを目的として、財務データに関する深い質問に答えることに重点を置いている。
我々は,金融専門家が作成した財務報告に対して質問回答のペアを用いた,新たな大規模データセットFinQAを提案する。
その結果、人気があり、大規模で、事前訓練されたモデルは、金融知識を得るための専門的な人間には程遠いことが示される。
論文 参考訳(メタデータ) (2021-09-01T00:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。