論文の概要: Aligning Language Models with Investor and Market Behavior for Financial Recommendations
- arxiv url: http://arxiv.org/abs/2510.15993v1
- Date: Tue, 14 Oct 2025 03:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.757906
- Title: Aligning Language Models with Investor and Market Behavior for Financial Recommendations
- Title(参考訳): 金融レコメンデーションのための投資家と市場行動を考慮した言語モデル
- Authors: Fernando Spadea, Oshani Seneviratne,
- Abstract要約: 本稿では,Large Language Models (LLMs), Knowledge Graphs (KGs), Kahneman-Tversky Optimization (KTO)を統合した新しいフレームワークFLARKOを提案する。
FLARKOは、ユーザーのトランザクション履歴と資産動向を構造化されたKGとしてエンコードし、LLMの解釈可能かつ制御可能なコンテキストを提供する。
FAR-Transデータセットに基づいて、FLARKOは、行動アライメントと共同利益性に基づく最先端のレコメンデーションベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 46.90931293070464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most financial recommendation systems often fail to account for key behavioral and regulatory factors, leading to advice that is misaligned with user preferences, difficult to interpret, or unlikely to be followed. We present FLARKO (Financial Language-model for Asset Recommendation with Knowledge-graph Optimization), a novel framework that integrates Large Language Models (LLMs), Knowledge Graphs (KGs), and Kahneman-Tversky Optimization (KTO) to generate asset recommendations that are both profitable and behaviorally aligned. FLARKO encodes users' transaction histories and asset trends as structured KGs, providing interpretable and controllable context for the LLM. To demonstrate the adaptability of our approach, we develop and evaluate both a centralized architecture (CenFLARKO) and a federated variant (FedFLARKO). To our knowledge, this is the first demonstration of combining KTO for fine-tuning of LLMs for financial asset recommendation. We also present the first use of structured KGs to ground LLM reasoning over behavioral financial data in a federated learning (FL) setting. Evaluated on the FAR-Trans dataset, FLARKO consistently outperforms state-of-the-art recommendation baselines on behavioral alignment and joint profitability, while remaining interpretable and resource-efficient.
- Abstract(参考訳): ほとんどの金融レコメンデーションシステムは、重要な行動要因や規制要因を説明できないことが多く、ユーザの好みと不一致、解釈が困難、あるいはフォローできないアドバイスにつながる。
本稿では,Large Language Models (LLMs), Knowledge Graphs (KGs), Kahneman-Tversky Optimization (KTO)を統合した新たなフレームワークであるFLARKO(Financial Language-model for Asset Recommendation with Knowledge-graph Optimization)を提案する。
FLARKOは、ユーザーのトランザクション履歴と資産動向を構造化されたKGとしてエンコードし、LLMの解釈可能かつ制御可能なコンテキストを提供する。
本手法の適用性を示すため,集中型アーキテクチャ (CenFLARKO) とフェデレート型 (FedFLARKO) の両方を開発し,評価した。
我々の知る限り、これは金融資産レコメンデーションのためのLLMの微調整にKTOを組み合わせる最初の実演である。
また、構造化KGを用いて、連邦学習(FL)環境での行動財務データに基づくLLM推論を行う。
FAR-Transデータセットに基づいて評価されたFLARKOは、動作アライメントと共同利益性に基づく最先端の推奨ベースラインを一貫して上回り、解釈可能かつリソース効率を保っている。
関連論文リスト
- LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - FLAG-Trader: Fusion LLM-Agent with Gradient-based Reinforcement Learning for Financial Trading [28.57263158928989]
大規模言語モデル(LLM)は、マルチモーダルな財務データに基づいて微調整されている。
言語処理(LLM)と勾配駆動強化学習(RL)ポリシーの最適化を統合した統一アーキテクチャであるtextscFLAG-Traderを提案する。
論文 参考訳(メタデータ) (2025-02-17T04:45:53Z) - Large Language Model-Enhanced Symbolic Reasoning for Knowledge Base Completion [28.724919973497943]
大きな言語モデル(LLM)とルールベースの推論は、知識ベース補完の柔軟性と信頼性を向上させる強力なソリューションを提供する。
本稿では, サブグラフエクストラクタ, LLMプロポーラ, ルール共振器からなる新しいフレームワークを提案する。
提案したルールの豊かさと多様性を高めるためのLCMの利用,信頼性を向上させるためのルールベースの推論との統合などである。
論文 参考訳(メタデータ) (2025-01-02T13:14:28Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - Reasoning over User Preferences: Knowledge Graph-Augmented LLMs for Explainable Conversational Recommendations [58.61021630938566]
対話型レコメンデーションシステム(CRS)は,対話型対話を通じてユーザの好みを捉え,パーソナライズされたレコメンデーションを提供することを目的としている。
現在のCRSは、しばしば知識グラフ(KG)や言語モデルを利用して、ユーザの好みを潜在ベクトルとして抽出し、表現し、説明可能性を制限する。
本稿では,LCMとKGを相乗化してユーザの好みを推論し,既存のCRSの性能と説明可能性を高めるプラグイン・アンド・プレイ・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。