論文の概要: InvestAlign: Overcoming Data Scarcity in Aligning Large Language Models with Investor Decision-Making Processes under Herd Behavior
- arxiv url: http://arxiv.org/abs/2507.06528v1
- Date: Wed, 09 Jul 2025 04:07:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.461505
- Title: InvestAlign: Overcoming Data Scarcity in Aligning Large Language Models with Investor Decision-Making Processes under Herd Behavior
- Title(参考訳): InvestAlign: 大規模言語モデルとインベスタ意思決定プロセスの整合化におけるデータスカシティの克服
- Authors: Huisheng Wang, Zhuoshi Pan, Hangjing Zhang, Mingxiao Liu, Hanqing Gao, H. Vicky Zhao,
- Abstract要約: 高品質なSupervised Fine-Tuningデータセットを構築するフレームワークであるInvestAlignを提案する。
理論的解析により,実ユーザデータよりも高速なパラメータ収束を実現することが示唆された。
これは、当社が提案したInvestAlignを、複雑な最適投資問題に対処する可能性のある、有望なアプローチとして強調します。
- 参考スコア(独自算出の注目度): 5.692437587150179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aligning Large Language Models (LLMs) with investor decision-making processes under herd behavior is a critical challenge in behavioral finance, which grapples with a fundamental limitation: the scarcity of real-user data needed for Supervised Fine-Tuning (SFT). While SFT can bridge the gap between LLM outputs and human behavioral patterns, its reliance on massive authentic data imposes substantial collection costs and privacy risks. We propose InvestAlign, a novel framework that constructs high-quality SFT datasets by leveraging theoretical solutions to similar and simple optimal investment problems rather than complex scenarios. Our theoretical analysis demonstrates that training LLMs with InvestAlign-generated data achieves faster parameter convergence than using real-user data, suggesting superior learning efficiency. Furthermore, we develop InvestAgent, an LLM agent fine-tuned with InvestAlign, which demonstrates significantly closer alignment to real-user data than pre-SFT models in both simple and complex investment problems. This highlights our proposed InvestAlign as a promising approach with the potential to address complex optimal investment problems and align LLMs with investor decision-making processes under herd behavior. Our code is publicly available at https://github.com/thu-social-network-research-group/InvestAlign.
- Abstract(参考訳): 大規模言語モデル(LLMs)と投資家による意思決定プロセスの隠蔽行動の調整は、行動金融において重要な課題であり、これは基本的な制限、すなわち監督された微調整(SFT)に必要な実際のユーザデータの不足を伴っている。
SFTは、LCM出力と人間の行動パターンのギャップを埋めることができますが、その巨大な認証データへの依存は、かなりの収集コストとプライバシーリスクを課します。
我々は,複雑なシナリオではなく,類似かつ単純な最適投資問題に対する理論的解決策を活用することによって,高品質なSFTデータセットを構築する新しいフレームワークであるInvestAlignを提案する。
理論的解析により,InvestAlign生成データを用いたLCMの学習が実ユーザデータよりも高速なパラメータ収束を実現し,学習効率が向上することが示唆された。
さらに、InvestAlignで微調整されたLLMエージェントであるInvestAgentを開発し、単純な投資問題と複雑な投資問題の両方において、SFT以前のモデルよりも実際のユーザデータとの密接な整合性を示す。
このことは、当社が提案したInvestAlignを、複雑な最適投資問題に対処し、LLMと投資家の意思決定プロセスとの整合性を備えた有望なアプローチとして強調する。
私たちのコードはhttps://github.com/thu-social-network-research-group/InvestAlignで公開されています。
関連論文リスト
- MountainLion: A Multi-Modal LLM-Based Agent System for Interpretable and Adaptive Financial Trading [6.433335815589235]
MountainLionは金融取引のためのマルチモーダル・マルチエージェントシステムであり、金融データを解釈し投資戦略を生成する専門的LLMエージェントをコーディネートする。
中央反射モジュールは、歴史的取引信号と結果を分析して、意思決定プロセスを継続的に洗練する。
実証的な結果は、MountainLionが文脈的マクロ経済と資本フローの信号で技術的価格トリガを体系的に強化していることを確認する。
論文 参考訳(メタデータ) (2025-07-13T05:39:42Z) - Time Travel is Cheating: Going Live with DeepFund for Real-Time Fund Investment Benchmarking [12.837781884216227]
LLM(Large Language Models)は、財務タスクにまたがる顕著な機能を示す。
複雑なファンド投資を管理するための現実的な効果は、まだ不十分に評価されている。
我々は,LLMをリアルタイム市場環境で厳格に評価するために設計された,ライブファンドベンチマークツールであるDeepFundを紹介する。
論文 参考訳(メタデータ) (2025-05-16T10:00:56Z) - LLM Knows Geometry Better than Algebra: Numerical Understanding of LLM-Based Agents in A Trading Arena [44.13836431002364]
エージェントが株式ポートフォリオに投資するゼロサムゲームを通じて複雑な経済システムをシミュレーションする仮想数値ゲームを設計する。
実験の結果,GPT-4o を含む LLM は,大域的な傾向ではなく局所的な詳細に焦点を絞って,平文のストックデータを扱う場合の代数的推論に苦慮していることがわかった。
対照的に、LLMは、散布プロットやK線チャートのような視覚データで示される場合、幾何学的推論により大幅に向上する。
論文 参考訳(メタデータ) (2025-02-25T08:41:01Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLM-Powered Multi-Agent System for Automated Crypto Portfolio Management [9.9661459222949]
本稿では、暗号通貨投資のための説明可能なマルチモーダルマルチエージェントフレームワークを提案する。
当社のフレームワークでは、データ分析や文献の統合、投資決定といったサブタスクを処理するために、チーム内およびチーム間で協力する特殊なエージェントを使用しています。
論文 参考訳(メタデータ) (2025-01-01T13:08:17Z) - Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling [15.67321902882617]
本稿では,オープンソースのLLMをトレーニングし,モデリングやソルバコードの開発を最適化する実行可能なパスを提案する。
この研究は、実用的なOR問題の解決においてLLMを評価するための最初の産業ベンチマークであるIndustrialORも導入した。
論文 参考訳(メタデータ) (2024-05-28T01:55:35Z) - Self-Play Fine-Tuning Converts Weak Language Models to Strong Language Models [52.98743860365194]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Language Models for Business Optimisation with a Real World Case Study in Production Scheduling [3.224702011999591]
大規模言語モデル (LLM) は、様々な言語関連タスクにまたがる卓越した性能を示している。
ビジネス最適化における問題定式化を自動化するためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-22T23:45:21Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。