論文の概要: FinRLlama: A Solution to LLM-Engineered Signals Challenge at FinRL Contest 2024
- arxiv url: http://arxiv.org/abs/2502.01992v1
- Date: Tue, 04 Feb 2025 04:11:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:20.146745
- Title: FinRLlama: A Solution to LLM-Engineered Signals Challenge at FinRL Contest 2024
- Title(参考訳): FinRLlama: FinRL Contest 2024でのLLMによる信号問題への解決策
- Authors: Arnav Grover,
- Abstract要約: 本研究では,市場フィードバック(RLMF)による強化学習を用いた大規模言語モデル(LLM)のための新しいプロンプトフレームワークを提案する。
我々のフレームワークは、より正確な取引信号を生成するために、市場特有の特徴と短期的な価格変動を取り入れている。
評価の結果,このRTMF調整フレームワークは,信号の整合性や取引結果の厳密化において,ベースライン手法よりも優れており,タスクIIの勝者として与えられることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In response to Task II of the FinRL Challenge at ACM ICAIF 2024, this study proposes a novel prompt framework for fine-tuning large language models (LLM) with Reinforcement Learning from Market Feedback (RLMF). Our framework incorporates market-specific features and short-term price dynamics to generate more precise trading signals. Traditional LLMs, while competent in sentiment analysis, lack contextual alignment for financial market applications. To bridge this gap, we fine-tune the LLaMA-3.2-3B-Instruct model using a custom RLMF prompt design that integrates historical market data and reward-based feedback. Our evaluation shows that this RLMF-tuned framework outperforms baseline methods in signal consistency and achieving tighter trading outcomes; awarded as winner of Task II. You can find the code for this project on GitHub.
- Abstract(参考訳): ACM ICAIF 2024におけるFinRL ChallengeのタスクIIに応じて,市場フィードバックからの強化学習(RLMF)による大規模言語モデル(LLM)の微調整のための新しいプロンプトフレームワークを提案する。
我々のフレームワークは、より正確な取引信号を生成するために、市場特有の特徴と短期的な価格変動を取り入れている。
従来のLLMは感情分析に長けているが、金融市場アプリケーションにはコンテキストアライメントが欠如している。
このギャップを埋めるために、歴史的市場データと報酬に基づくフィードバックを統合するカスタムRLMFプロンプト設計を用いてLLaMA-3.2-3B-インストラクタモデルを微調整する。
評価の結果,このRTMF調整フレームワークは,信号の整合性や取引結果の厳密化において,ベースライン手法よりも優れており,タスクIIの勝者として与えられることがわかった。
このプロジェクトのコードはGitHubにある。
関連論文リスト
- BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - Insight Over Sight? Exploring the Vision-Knowledge Conflicts in Multimodal LLMs [55.74117540987519]
本稿では,マルチモーダル大言語モデル(MLLM)におけるコモンセンスレベルの視覚知識衝突の問題について考察する。
MLLMのコンフリクトのシミュレーションと評価を目的としたベンチマークを確立するため,人間のループ品質制御を付加した自動パイプラインを導入する。
各種モデルファミリーにおける9つの代表MLLMのコンフリクト分解能を評価し,テキストクエリに顕著なオーバー信頼度を求める。
論文 参考訳(メタデータ) (2024-10-10T17:31:17Z) - VinePPO: Unlocking RL Potential For LLM Reasoning Through Refined Credit Assignment [66.80143024475635]
VinePPOは不偏のモンテカルロ推定を計算するための簡単な手法である。
我々は、VinePPOが、MATHおよびGSM8Kデータセット間でPPOや他のRLフリーベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - CatMemo at the FinLLM Challenge Task: Fine-Tuning Large Language Models using Data Fusion in Financial Applications [10.225210627594894]
IJCAI-2024 FinLLMの課題に対して,金融業務の3つの重要な領域におけるLLMの能力について検討した。
金融分類、財務文書要約、単一株式取引について検討する。
提案手法は,これらの多様なタスクを包括的かつ総合的に処理することを目的としており,LLMの多様かつ複雑な財務課題への対処能力の向上と意思決定能力の向上を図っている。
論文 参考訳(メタデータ) (2024-07-02T05:04:13Z) - FinLlama: Financial Sentiment Classification for Algorithmic Trading Applications [2.2661367844871854]
大規模言語モデル(LLM)はこの文脈で使用することができるが、財務に特化せず、重要な計算資源を必要とする傾向がある。
我々はLlama 2 7Bの基礎モデルに基づく新しいアプローチを導入し,その生成特性と包括的言語操作の利点を享受する。
これは、Llama2 7Bモデルを教師付き財務感情分析データの一部に微調整することで達成される。
論文 参考訳(メタデータ) (2024-03-18T22:11:00Z) - FinBen: A Holistic Financial Benchmark for Large Language Models [75.09474986283394]
FinBenは、24の財務タスクにまたがる36のデータセットを含む、最初の大規模なオープンソース評価ベンチマークである。
FinBenは、幅広いタスクとデータセット、ストックトレーディングの最初の評価、新しいエージェントと検索可能な生成(RAG)の評価、およびテキスト要約、質問応答、株式トレーディングのための3つの新しいオープンソース評価データセットを提供する。
論文 参考訳(メタデータ) (2024-02-20T02:16:16Z) - Integrating Stock Features and Global Information via Large Language
Models for Enhanced Stock Return Prediction [5.762650600435391]
本稿では,大規模言語モデルと既存の定量的モデルを統合する上での課題を克服するために,2つのコンポーネントからなる新しいフレームワークを提案する。
我々はランク情報係数とリターンにおいて、特に中国A株市場における株価のみに依存したモデルと比較して、優れたパフォーマンスを示してきた。
論文 参考訳(メタデータ) (2023-10-09T11:34:18Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - Beyond Task Performance: Evaluating and Reducing the Flaws of Large
Multimodal Models with In-Context Learning [105.77733287326308]
我々は,3Bから80Bパラメータスケールまでの最近のオープンソースLMMを,幻覚,禁忌,構成性,説明可能性,指示に従う5つの異なる軸で評価した。
トレーニングフリーなインコンテキスト学習(ICL)をソリューションとして検討し、それがこれらの制限に与える影響について検討する。
ICL研究に基づき、ICLをさらに推し進め、Multitask-ICL、Chain-of-Hindsight-ICL、Self-Correcting-ICLといった新しい多モードICL変種を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:59Z) - FinRL: Deep Reinforcement Learning Framework to Automate Trading in
Quantitative Finance [22.808509136431645]
深層強化学習(DRL)は、量的ファイナンスにおいて競争力を持つと想定されている。
本稿では,オープンソースのフレームワーク textitFinRL を,量的トレーダーが学習曲線の急勾配を克服するのに役立つための完全なパイプラインとして提示する。
論文 参考訳(メタデータ) (2021-11-07T00:34:32Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。