論文の概要: Parallel and Multi-Stage Knowledge Graph Retrieval for Behaviorally Aligned Financial Asset Recommendations
- arxiv url: http://arxiv.org/abs/2511.11583v1
- Date: Wed, 08 Oct 2025 20:42:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.174677
- Title: Parallel and Multi-Stage Knowledge Graph Retrieval for Behaviorally Aligned Financial Asset Recommendations
- Title(参考訳): 行動適応型金融資産レコメンデーションのための並列・多段階知識グラフ検索
- Authors: Fernando Spadea, Oshani Seneviratne,
- Abstract要約: 本稿では,FLARKOの検索拡張であるRAG-FLARKOを紹介する。
マルチステージおよび並列KG検索プロセスによるスケーラビリティと妥当性の課題を克服する。
実世界の金融取引データセットに関する実証的な評価は、RAG-FLARKOが推奨品質を大幅に向上することを示している。
- 参考スコア(独自算出の注目度): 46.90931293070464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) show promise for personalized financial recommendations but are hampered by context limits, hallucinations, and a lack of behavioral grounding. Our prior work, FLARKO, embedded structured knowledge graphs (KGs) in LLM prompts to align advice with user behavior and market data. This paper introduces RAG-FLARKO, a retrieval-augmented extension to FLARKO, that overcomes scalability and relevance challenges using multi-stage and parallel KG retrieval processes. Our method first retrieves behaviorally relevant entities from a user's transaction KG and then uses this context to filter temporally consistent signals from a market KG, constructing a compact, grounded subgraph for the LLM. This pipeline reduces context overhead and sharpens the model's focus on relevant information. Empirical evaluation on a real-world financial transaction dataset demonstrates that RAG-FLARKO significantly enhances recommendation quality. Notably, our framework enables smaller, more efficient models to achieve high performance in both profitability and behavioral alignment, presenting a viable path for deploying grounded financial AI in resource-constrained environments.
- Abstract(参考訳): 大規模言語モデル(LLM)は、パーソナライズされた金融レコメンデーションの約束を示すが、コンテキスト制限、幻覚、行動基盤の欠如によって妨げられる。
FLARKO, 組込み構造化知識グラフ (KGs) をLCMに組み込むことにより, ユーザの行動や市場データとアドバイスを一致させる。
本稿では、FLARKOの検索拡張であるRAG-FLARKOを紹介し、マルチステージおよび並列KG検索プロセスによるスケーラビリティと妥当性の課題を克服する。
提案手法は,まずユーザのトランザクションKGから行動関連エンティティを抽出し,そのコンテキストを用いて市場KGから時間的一貫した信号をフィルタリングし,LLM用のコンパクトな基底部分グラフを構築する。
このパイプラインは、コンテキストオーバーヘッドを減らし、関連する情報に対するモデルの焦点を絞る。
実世界の金融取引データセットに関する実証的な評価は、RAG-FLARKOが推奨品質を大幅に向上することを示している。
特に、我々のフレームワークは、利益性と行動アライメントの両方において、より小さく、より効率的なモデルの実現を可能にし、リソース制約のある環境に基盤となる金融AIをデプロイするための実行可能なパスを提供する。
関連論文リスト
- Metadata-Driven Retrieval-Augmented Generation for Financial Question Answering [0.0]
文脈的にリッチなドキュメントチャンクを作成するための高度なインデックスパイプラインを導入します。
我々は、検索前フィルタリング、検索後再ランク付け、エンリッチな埋め込みなど、さまざまな拡張のスペクトルをベンチマークする。
提案する最適アーキテクチャは、LLM駆動の事前検索最適化とコンテキスト埋め込みを組み合わせることで、優れた性能を実現する。
論文 参考訳(メタデータ) (2025-10-28T13:16:36Z) - Can Knowledge-Graph-based Retrieval Augmented Generation Really Retrieve What You Need? [57.28763506780752]
GraphFlowは、テキストリッチなKGから現実世界のクエリに必要な正確で多様な知識を効率的に取得するフレームワークである。
GPT-4oを含む強力なKG-RAGベースラインを10%上回り、ヒット率とリコール率で上回る。
また、KGを見えないものに強く一般化し、その有効性と堅牢性を示す。
論文 参考訳(メタデータ) (2025-10-18T17:06:49Z) - Aligning Language Models with Investor and Market Behavior for Financial Recommendations [46.90931293070464]
本稿では,Large Language Models (LLMs), Knowledge Graphs (KGs), Kahneman-Tversky Optimization (KTO)を統合した新しいフレームワークFLARKOを提案する。
FLARKOは、ユーザーのトランザクション履歴と資産動向を構造化されたKGとしてエンコードし、LLMの解釈可能かつ制御可能なコンテキストを提供する。
FAR-Transデータセットに基づいて、FLARKOは、行動アライメントと共同利益性に基づく最先端のレコメンデーションベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-14T03:24:20Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Tuning-Free LLM Can Build A Strong Recommender Under Sparse Connectivity And Knowledge Gap Via Extracting Intent [6.6404452803956495]
IKGRは意図中心の知識グラフを構築する新しいフレームワークである。
IKGRは、ユーザーが求めるもの、アイテムが満足するものを第一級エンティティとして表現する。
パブリックデータセットとエンタープライズデータセットの実験は、IKGRが一貫して強力なベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-16T06:07:19Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - FRAG: A Flexible Modular Framework for Retrieval-Augmented Generation based on Knowledge Graphs [17.477161619378332]
両アプローチの利点を相乗化する新しいフレキシブルなモジュール型KG-RAGフレームワークFRAGを提案する。
知識グラフの代わりにクエリテキストを使用することで、FRAGは柔軟性を維持しながら検索品質を向上させる。
論文 参考訳(メタデータ) (2025-01-17T05:19:14Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。