論文の概要: Designing Heterogeneous LLM Agents for Financial Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2401.05799v1
- Date: Thu, 11 Jan 2024 10:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 15:13:54.316978
- Title: Designing Heterogeneous LLM Agents for Financial Sentiment Analysis
- Title(参考訳): 金融感情分析のための異種llmエージェントの設計
- Authors: Frank Xing
- Abstract要約: 本研究では、金融感情分析(FSA)における大規模言語モデル(LLM)の有効性について検討する。
ミンスキーの心と感情の理論を取り入れたヘテロジニアスLSMエージェントを用いた設計枠組みが提案されている。
このフレームワークは、FSAのエラーの種類や、集約されたエージェントの議論の理由に関する事前のドメイン知識を使用して、特殊なエージェントをインスタンス化する。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have drastically changed the possible ways to
design intelligent systems, shifting the focuses from massive data acquisition
and new modeling training to human alignment and strategical elicitation of the
full potential of existing pre-trained models. This paradigm shift, however, is
not fully realized in financial sentiment analysis (FSA), due to the
discriminative nature of this task and a lack of prescriptive knowledge of how
to leverage generative models in such a context. This study investigates the
effectiveness of the new paradigm, i.e., using LLMs without fine-tuning for
FSA. Rooted in Minsky's theory of mind and emotions, a design framework with
heterogeneous LLM agents is proposed. The framework instantiates specialized
agents using prior domain knowledge of the types of FSA errors and reasons on
the aggregated agent discussions. Comprehensive evaluation on FSA datasets show
that the framework yields better accuracies, especially when the discussions
are substantial. This study contributes to the design foundations and paves new
avenues for LLMs-based FSA. Implications on business and management are also
discussed.
- Abstract(参考訳): 大規模言語モデル(LLM)は、知的システムを設計する可能性を大幅に変え、膨大なデータ取得と新しいモデリングトレーニングから、既存のトレーニング済みモデルの完全な可能性のヒトのアライメントと戦略的活用へと焦点を移した。
しかし、このパラダイムシフトは金融感情分析(fsa)では、このタスクの差別的性質と、そのような文脈で生成モデルをどのように活用するかに関する規範的知識の欠如のため、完全には実現されていない。
本研究では,FSA を微調整することなく LLM を用いた新しいパラダイムの有効性について検討した。
ミンスキーの心と感情の理論を取り入れたヘテロジニアスLSMエージェントを用いた設計枠組みが提案されている。
このフレームワークは、fsaエラーのタイプと集約されたエージェントの議論の理由の事前ドメイン知識を使用して、専門的なエージェントをインスタンス化する。
FSAデータセットの総合的な評価は、特に議論が実質的である場合、フレームワークがより良い精度を得ることを示している。
本研究は, LLMs ベース FSA の設計基盤と新たな道の舗装に寄与する。
ビジネスとマネジメントへの影響についても論じる。
関連論文リスト
- Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Are Large Language Models Rational Investors? [9.629632578239974]
大規模言語モデル(LLM)は、複雑な市場データとトレンドを解釈するための広範な知識基盤を活用するために、金融分析において徐々に採用されている。
しかし、金融分野におけるそれらの応用は、内在的バイアス(すなわちリスク参照バイアス)と表面的な市場の複雑さの把握によって挑戦される。
本研究では, LLMの経済的合理性を評価する新しい枠組みであるFinancial Bias Indicators(FBI)を紹介する。
論文 参考訳(メタデータ) (2024-02-20T04:26:08Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - K-Level Reasoning with Large Language Models [80.13817747270029]
急速に発展する環境における意思決定のための大規模言語モデル(LLM)の動的推論機能について検討する。
実世界の動的意思決定の複雑さを反映した2つのゲーム理論に基づくパイロットチャレンジを導入する。
これらの課題は明確に定義されており、LLMの動的推論能力の明確で制御可能で正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Large Language Model Adaptation for Financial Sentiment Analysis [2.0499240875882]
一般言語モデルは、金融に特化されたタスクでは不足する傾向にある。
1.5B未満のパラメータを持つ2つの基礎モデルは、幅広い戦略を用いて適応されている。
小型LLMは大規模モデルに匹敵する性能を有しつつ,パラメータやデータの観点からも効率がよいことを示す。
論文 参考訳(メタデータ) (2024-01-26T11:04:01Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [113.72984199026094]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
生成モデルのカウンターファクトの能力を効果的に評価するために,革新的な評価指標であるLogicAware Counterfactual Scoreを提案する。
分析の結果,提案手法は人間の好みとよく一致していることがわかった。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - LUNA: A Model-Based Universal Analysis Framework for Large Language
Models [19.987824870961926]
自己保持機構, 極めて大規模なモデルスケール, 自己回帰生成スキーマは, 品質解析における新たな課題を提示する。
汎用かつ解釈可能なLLMの普遍的解析フレームワークを提案する。
特に、私たちはまず、望ましい信頼性の観点からのデータを活用して抽象モデルを構築します。
論文 参考訳(メタデータ) (2023-10-22T07:26:21Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。