論文の概要: FLAG-Trader: Fusion LLM-Agent with Gradient-based Reinforcement Learning for Financial Trading
- arxiv url: http://arxiv.org/abs/2502.11433v3
- Date: Wed, 19 Feb 2025 03:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 10:37:11.770605
- Title: FLAG-Trader: Fusion LLM-Agent with Gradient-based Reinforcement Learning for Financial Trading
- Title(参考訳): FLAG-Trader:金融取引のためのグラディエントベース強化学習を用いた核融合LLM-Agent
- Authors: Guojun Xiong, Zhiyang Deng, Keyi Wang, Yupeng Cao, Haohang Li, Yangyang Yu, Xueqing Peng, Mingquan Lin, Kaleb E Smith, Xiao-Yang Liu, Jimin Huang, Sophia Ananiadou, Qianqian Xie,
- Abstract要約: 大規模言語モデル(LLM)は、マルチモーダルな財務データに基づいて微調整されている。
言語処理(LLM)と勾配駆動強化学習(RL)ポリシーの最適化を統合した統一アーキテクチャであるtextscFLAG-Traderを提案する。
- 参考スコア(独自算出の注目度): 28.57263158928989
- License:
- Abstract: Large language models (LLMs) fine-tuned on multimodal financial data have demonstrated impressive reasoning capabilities in various financial tasks. However, they often struggle with multi-step, goal-oriented scenarios in interactive financial markets, such as trading, where complex agentic approaches are required to improve decision-making. To address this, we propose \textsc{FLAG-Trader}, a unified architecture integrating linguistic processing (via LLMs) with gradient-driven reinforcement learning (RL) policy optimization, in which a partially fine-tuned LLM acts as the policy network, leveraging pre-trained knowledge while adapting to the financial domain through parameter-efficient fine-tuning. Through policy gradient optimization driven by trading rewards, our framework not only enhances LLM performance in trading but also improves results on other financial-domain tasks. We present extensive empirical evidence to validate these enhancements.
- Abstract(参考訳): 大規模言語モデル(LLM)は多モーダルな財務データに基づいて微調整されており、様々な財務業務において顕著な推論能力を示している。
しかし、取引のような対話的な金融市場において、意思決定を改善するには複雑なエージェント的アプローチが必要となる、多段階の目標指向シナリオに苦しむことが多い。
そこで本研究では,言語処理(LLM)と勾配駆動型強化学習(RL)ポリシ最適化を統合した統一アーキテクチャである‘textsc{FLAG-Trader}を提案する。
取引報酬によって引き起こされる政策勾配の最適化を通じて、我々のフレームワークは取引におけるLLMのパフォーマンスを向上するだけでなく、他の金融分野のタスクの結果も改善する。
これらの拡張を検証するための広範な実証的証拠を提示する。
関連論文リスト
- Enhancing Financial Domain Adaptation of Language Models via Model Augmentation [2.9960693856871545]
本研究は、金融分野への適応における言語モデル(CALM)の構成の有効性を実証する。
我々は,強力な応答機能を有するLCMの財務性能を向上させるためのCALMを開発した。
論文 参考訳(メタデータ) (2024-11-14T07:28:09Z) - FinVision: A Multi-Agent Framework for Stock Market Prediction [0.0]
本研究では,金融取引タスクに特化して設計されたマルチモーダルマルチエージェントシステムを提案する。
提案手法の重要な特徴はリフレクションモジュールの統合である。
論文 参考訳(メタデータ) (2024-10-29T06:02:28Z) - Automate Strategy Finding with LLM in Quant investment [4.46212317245124]
ポートフォリオ管理とアルファマイニングにおける定量株式投資のための新しい枠組みを提案する。
本稿では,大規模言語モデル(LLM)がマルチモーダル財務データからアルファ因子を抽出する枠組みを提案する。
中国株式市場の実験は、この枠組みが最先端のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2024-09-10T07:42:28Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Fine-Tuning Large Vision-Language Models as Decision-Making Agents via Reinforcement Learning [79.38140606606126]
強化学習(RL)を用いた視覚言語モデル(VLM)を微調整するアルゴリズムフレームワークを提案する。
我々のフレームワークはタスク記述を提供し、次にVLMにチェーン・オブ・シント(CoT)推論を生成するよう促す。
提案手法は,VLMエージェントの様々なタスクにおける意思決定能力を向上させる。
論文 参考訳(メタデータ) (2024-05-16T17:50:19Z) - Revolutionizing Finance with LLMs: An Overview of Applications and Insights [45.660896719456886]
ChatGPTのような大規模言語モデル(LLM)はかなり進歩しており、様々な分野に適用されている。
これらのモデルは、財務報告の自動生成、市場のトレンド予測、投資家の感情分析、パーソナライズされた財務アドバイスの提供に利用されています。
論文 参考訳(メタデータ) (2024-01-22T01:06:17Z) - FinMem: A Performance-Enhanced LLM Trading Agent with Layered Memory and
Character Design [11.913409501633616]
textscFinMemは、金融上の意思決定のために考案された新しいLLMベースのエージェントフレームワークである。
textscFinMemのメモリモジュールは、人間のトレーダーの認知構造と密接に一致し、堅牢な解釈性を提供する。
このフレームワークは、エージェントが専門知識を自己開発し、新しい投資方法にアジャイルに反応し、取引決定を継続的に洗練することを可能にする。
論文 参考訳(メタデータ) (2023-11-23T00:24:40Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Large Language Models in Finance: A Survey [12.243277149505364]
大規模言語モデル(LLM)は、金融における人工知能応用の新しい可能性を開いた。
大規模言語モデル(LLM)の最近の進歩は、金融における人工知能応用の新しい可能性を開いた。
論文 参考訳(メタデータ) (2023-09-28T06:04:04Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。