論文の概要: FinMe: A Performance-Enhanced Large Language Model Trading Agent with
Layered Memory and Character Design
- arxiv url: http://arxiv.org/abs/2311.13743v1
- Date: Thu, 23 Nov 2023 00:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:57:46.088636
- Title: FinMe: A Performance-Enhanced Large Language Model Trading Agent with
Layered Memory and Character Design
- Title(参考訳): FinMe: 階層記憶と文字設計を備えたパフォーマンス向上した大規模言語モデルトレーディングエージェント
- Authors: Yangyang Yu, Haohang Li, Zhi Chen, Yuechen Jiang, Yang Li, Denghui
Zhang, Rong Liu, Jordan W. Suchow, Khaldoun Khashanah
- Abstract要約: textscFinMeは、ファイナンシャル意思決定のために開発された新しいエージェントフレームワークで、プロファイリング、メモリ、意思決定という3つのコアモジュールを含んでいる。
textscFinMeのメモリモジュールは、人間のトレーダーの認知構造と密接に一致し、堅牢な解釈可能性とリアルタイムチューニングを提供する。
このフレームワークは、エージェントが専門知識を自己開発し、新しい投資方法にアジャイルに反応し、取引決定を継続的に洗練することを可能にする。
- 参考スコア(独自算出の注目度): 11.913409501633616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have exhibited notable
efficacy in question-answering (QA) tasks across diverse domains. Their prowess
in integrating extensive web knowledge has fueled interest in developing LLM
autonomous agents. While LLMs are efficient in decoding human instructions and
deriving solutions by holistically processing historical inputs, transitioning
to purpose-driven agents requires a supplementary rational architecture to
process multi-source information, establish reasoning chains, and prioritize
critical tasks. Addressing this, we introduce \textsc{FinMe}, a novel LLM-based
agent framework devised for financial decision-making, encompassing three core
modules: Profiling, to outline the agent's characteristics; Memory, with
layered processing, to aid the agent in assimilating realistic hierarchical
financial data; and Decision-making, to convert insights gained from memories
into investment decisions. Notably, \textsc{FinMe}'s memory module aligns
closely with the cognitive structure of human traders, offering robust
interpretability and real-time tuning. Its adjustable cognitive span allows for
the retention of critical information beyond human perceptual limits, thereby
enhancing trading outcomes. This framework enables the agent to self-evolve its
professional knowledge, react agilely to new investment cues, and continuously
refine trading decisions in the volatile financial environment. We first
compare \textsc{FinMe} with various algorithmic agents on a scalable real-world
financial dataset, underscoring its leading trading performance in stocks and
funds. We then fine-tuned the agent's perceptual spans to achieve a significant
trading performance. Collectively, \textsc{FinMe} presents a cutting-edge LLM
agent framework for automated trading, boosting cumulative investment returns.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は、様々な領域にわたる質問応答(QA)タスクにおいて顕著な効果を示した。
彼らの広範なウェブ知識の統合への取り組みは、LSM自律エージェントの開発への関心を喚起した。
LLMは、人間の指示を復号し、歴史的入力を水平に処理することで解を導出するのに効率的であるが、目的駆動エージェントへの移行には、多元的情報処理、推論連鎖の確立、重要なタスクの優先順位付けなどの補助的合理的なアーキテクチャが必要である。
そこで我々は, LLM をベースとした新たなエージェントフレームワークである \textsc{FinMe} を導入し, エージェントの特徴を概説するためのプロファイリング, 階層化処理によるエージェントの現実的な階層的金融データの同化を支援するメモリ, メモリから得られる洞察を投資決定に変換するための意思決定, という3つの中核モジュールを包含する。
特に、 \textsc{FinMe} のメモリモジュールは人間のトレーダーの認知構造と密接に一致し、堅牢な解釈可能性とリアルタイムチューニングを提供する。
その調整可能な認知スパンにより、人間の知覚限界を超えた重要な情報の保持が可能になり、取引結果が向上する。
このフレームワークにより、エージェントは自身の専門知識を自発的に活用し、新たな投資のヒントにアジャイルに反応し、不安定な金融環境におけるトレーディング決定を継続的に洗練することができる。
まず、さまざまなアルゴリズムエージェントをスケーラブルな現実世界の財務データセットで比較し、株価やファンドにおける主要なトレーディングパフォーマンスを裏付ける。
その後、エージェントの知覚範囲を微調整して、重要な取引パフォーマンスを実現しました。
集合的に、 \textsc{FinMe} は自動取引のための最先端の LLM エージェントフレームワークを提示し、累積投資リターンを高める。
関連論文リスト
- Cooperate or Collapse: Emergence of Sustainability Behaviors in a Society of LLM Agents [101.17919953243107]
本稿では,大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するためのシミュレーションプラットフォームであるGovSimについて紹介する。
我々は,AIエージェント間の資源共有のダイナミクスを探求し,倫理的考察,戦略的計画,交渉スキルの重要性を強調した。
GovSimでは、15の試験されたLLMのうち、持続可能な結果を達成することができたのはわずか2つであり、モデルが共有リソースを管理する能力に重大なギャップがあることを示唆している。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Memory Sharing for Large Language Model based Agents [43.53494041932615]
大言語モデル(LLM)ベースのエージェントは、自然言語プロンプトを介してタスクを実行する。
詩の創造のようなオープンエンドな課題へのインコンテキスト学習の適用は、かなりの制限を明らかにしている。
本稿では,リアルタイムメモリストレージと検索システムを利用したLLMマルチエージェントのためのメモリ共有(MS)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:57:30Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - A Multimodal Foundation Agent for Financial Trading: Tool-Augmented,
Diversified, and Generalist [34.65025385252157]
FinAgentは金融取引タスクのためのマルチモーダル・ファンデーション・エージェントである。
金融市場を正確に分析するために、多種多様なデータ数字、テキスト、視覚的に処理する。
既存のトレーディング戦略と専門家の洞察を統合し、そのトレーディングアプローチがデータ駆動であり、健全な金融原則に根ざしていることを保証する。
論文 参考訳(メタデータ) (2024-02-28T17:06:54Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - QuantAgent: Seeking Holy Grail in Trading by Self-Improving Large
Language Model [14.800710112671226]
本稿では,ドメイン固有の知識基盤を効率的に構築し,統合する上での課題に対処する,原則的枠組みを提案する。
内側のループでは、エージェントは知識ベースから引き出すことで応答を洗練し、外側のループでは、これらの応答は現実世界のシナリオでテストされる。
我々はこのフレームワークを、QuantAgentという名のトレーディングシグナルをマイニングするための自律エージェントを通じてインスタンス化する。
論文 参考訳(メタデータ) (2024-02-06T06:47:14Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [76.95062553043607]
大きな言語モデル(LLM)を評価することは、その能力を理解し、実践的なアプリケーションへの統合を促進するために不可欠である。
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z) - Market Making with Deep Reinforcement Learning from Limit Order Books [2.569647910019739]
本稿では,リミットオーダーブック(LOB)データを用いた市場形成のためのRLエージェントを提案する。
特徴抽出には畳み込みフィルタとアテンション機構(Attn-LOB)を用いたニューラルネットワークを利用する。
MMタスクのための新しい連続行動空間とハイブリッド報酬関数を設計する。
論文 参考訳(メタデータ) (2023-05-25T08:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。