論文の概要: FinMem: A Performance-Enhanced LLM Trading Agent with Layered Memory and
Character Design
- arxiv url: http://arxiv.org/abs/2311.13743v2
- Date: Sun, 3 Dec 2023 16:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 21:13:55.058452
- Title: FinMem: A Performance-Enhanced LLM Trading Agent with Layered Memory and
Character Design
- Title(参考訳): FinMem: レイヤメモリとキャラクタ設計を備えた高性能LLMトレーディングエージェント
- Authors: Yangyang Yu, Haohang Li, Zhi Chen, Yuechen Jiang, Yang Li, Denghui
Zhang, Rong Liu, Jordan W. Suchow, Khaldoun Khashanah
- Abstract要約: textscFinMemは、金融上の意思決定のために考案された新しいLLMベースのエージェントフレームワークである。
textscFinMemのメモリモジュールは、人間のトレーダーの認知構造と密接に一致し、堅牢な解釈性を提供する。
このフレームワークは、エージェントが専門知識を自己開発し、新しい投資方法にアジャイルに反応し、取引決定を継続的に洗練することを可能にする。
- 参考スコア(独自算出の注目度): 11.913409501633616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have exhibited notable
efficacy in question-answering (QA) tasks across diverse domains. Their prowess
in integrating extensive web knowledge has fueled interest in developing
LLM-based autonomous agents. While LLMs are efficient in decoding human
instructions and deriving solutions by holistically processing historical
inputs, transitioning to purpose-driven agents requires a supplementary
rational architecture to process multi-source information, establish reasoning
chains, and prioritize critical tasks. Addressing this, we introduce
\textsc{FinMem}, a novel LLM-based agent framework devised for financial
decision-making. It encompasses three core modules: Profiling, to customize the
agent's characteristics; Memory, with layered message processing, to aid the
agent in assimilating hierarchical financial data; and Decision-making, to
convert insights gained from memories into investment decisions. Notably,
\textsc{FinMem}'s memory module aligns closely with the cognitive structure of
human traders, offering robust interpretability and real-time tuning. Its
adjustable cognitive span allows for the retention of critical information
beyond human perceptual limits, thereby enhancing trading outcomes. This
framework enables the agent to self-evolve its professional knowledge, react
agilely to new investment cues, and continuously refine trading decisions in
the volatile financial environment. We first compare \textsc{FinMem} with
various algorithmic agents on a scalable real-world financial dataset,
underscoring its leading trading performance in stocks. We then fine-tuned the
agent's perceptual span and character setting to achieve a significantly
enhanced trading performance. Collectively, \textsc{FinMem} presents a
cutting-edge LLM agent framework for automated trading, boosting cumulative
investment returns.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は、様々な領域にわたる質問応答(QA)タスクにおいて顕著な効果を示した。
彼らの広範なウェブ知識の統合への取り組みは、LLMベースの自律エージェントの開発への関心を喚起した。
LLMは、人間の指示を復号し、歴史的入力を水平に処理することで解を導出するのに効率的であるが、目的駆動エージェントへの移行には、多元的情報処理、推論連鎖の確立、重要なタスクの優先順位付けなどの補助的合理的なアーキテクチャが必要である。
これに対応するために,金融意思決定のために考案された新しい LLM ベースのエージェントフレームワークである \textsc{FinMem} を紹介する。
エージェントの特性をカスタマイズするプロファイリング、階層的な金融データの同化を支援するレイヤ化されたメッセージ処理を備えたメモリ、記憶から得られた洞察を投資判断に変換する意思決定の3つのコアモジュールを含んでいる。
特に、 \textsc{FinMem} のメモリモジュールは人間のトレーダーの認知構造と密接に一致し、堅牢な解釈可能性とリアルタイムチューニングを提供する。
その調整可能な認知スパンにより、人間の知覚限界を超えた重要な情報の保持が可能になり、取引結果が向上する。
このフレームワークにより、エージェントは自身の専門知識を自発的に活用し、新たな投資のヒントにアジャイルに反応し、不安定な金融環境におけるトレーディング決定を継続的に洗練することができる。
まず、さまざまなアルゴリズムエージェントをスケーラブルな現実世界の財務データセットで比較し、株価における主要なトレーディングパフォーマンスを裏付ける。
その後,エージェントの知覚的スパンと文字設定を微調整し,取引性能を大幅に向上させた。
集合的に、 \textsc{FinMem} は自動取引のための最先端の LLM エージェントフレームワークを提示し、累積投資リターンを加速する。
関連論文リスト
- A Multimodal Foundation Agent for Financial Trading: Tool-Augmented,
Diversified, and Generalist [34.65025385252157]
FinAgentは金融取引タスクのためのマルチモーダル・ファンデーション・エージェントである。
金融市場を正確に分析するために、多種多様なデータ数字、テキスト、視覚的に処理する。
既存のトレーディング戦略と専門家の洞察を統合し、そのトレーディングアプローチがデータ駆動であり、健全な金融原則に根ざしていることを保証する。
論文 参考訳(メタデータ) (2024-02-28T17:06:54Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - QuantAgent: Seeking Holy Grail in Trading by Self-Improving Large
Language Model [14.800710112671226]
本稿では,ドメイン固有の知識基盤を効率的に構築し,統合する上での課題に対処する,原則的枠組みを提案する。
内側のループでは、エージェントは知識ベースから引き出すことで応答を洗練し、外側のループでは、これらの応答は現実世界のシナリオでテストされる。
我々はこのフレームワークを、QuantAgentという名のトレーディングシグナルをマイニングするための自律エージェントを通じてインスタンス化する。
論文 参考訳(メタデータ) (2024-02-06T06:47:14Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [76.95062553043607]
大きな言語モデル(LLM)を評価することは、その能力を理解し、実践的なアプリケーションへの統合を促進するために不可欠である。
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Personal LLM Agents: Insights and Survey about the Capability,
Efficiency and Security [35.06258684395463]
我々は、個人データやパーソナルデバイスと深く統合されたLLMベースのエージェントであるPersonal LLM Agentsに焦点を当てる。
我々は、パーソナライズ LLM Agents が、今後エンドユーザーにとって主要なソフトウェアパラダイムになることを期待している。
論文 参考訳(メタデータ) (2024-01-10T09:25:45Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z) - Market Making with Deep Reinforcement Learning from Limit Order Books [2.569647910019739]
本稿では,リミットオーダーブック(LOB)データを用いた市場形成のためのRLエージェントを提案する。
特徴抽出には畳み込みフィルタとアテンション機構(Attn-LOB)を用いたニューラルネットワークを利用する。
MMタスクのための新しい連続行動空間とハイブリッド報酬関数を設計する。
論文 参考訳(メタデータ) (2023-05-25T08:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。