論文の概要: CORONA: A Coarse-to-Fine Framework for Graph-based Recommendation with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.17281v1
- Date: Sat, 14 Jun 2025 08:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.303766
- Title: CORONA: A Coarse-to-Fine Framework for Graph-based Recommendation with Large Language Models
- Title(参考訳): CORONA: 大規模言語モデルによるグラフベースの推薦のための粗大なフレームワーク
- Authors: Junze Chen, Xinjie Yang, Cheng Yang, Junfei Bao, Zeyuan Guo, Yawen Li, Chuan Shi,
- Abstract要約: 大規模言語モデル(LLM)はドメイン間で強力な機能を示している。
提案手法は,候補フィルタリング過程におけるLLMの推論能力を活用することである。
我々は,候補項目の範囲を徐々に狭めるために,検索の連鎖(Chein Of Retrieval ON grAphs)を導入する。
- 参考スコア(独自算出の注目度): 37.31002764910533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems (RSs) are designed to retrieve candidate items a user might be interested in from a large pool. A common approach is using graph neural networks (GNNs) to capture high-order interaction relationships. As large language models (LLMs) have shown strong capabilities across domains, researchers are exploring their use to enhance recommendation. However, prior work limits LLMs to re-ranking results or dataset augmentation, failing to utilize their power during candidate filtering - which may lead to suboptimal performance. Instead, we propose to leverage LLMs' reasoning abilities during the candidate filtering process, and introduce Chain Of Retrieval ON grAphs (CORONA) to progressively narrow down the range of candidate items on interaction graphs with the help of LLMs: (1) First, LLM performs preference reasoning based on user profiles, with the response serving as a query to extract relevant users and items from the interaction graph as preference-assisted retrieval; (2) Then, using the information retrieved in the previous step along with the purchase history of target user, LLM conducts intent reasoning to help refine an even smaller interaction subgraph as intent-assisted retrieval; (3) Finally, we employ a GNN to capture high-order collaborative filtering information from the extracted subgraph, performing GNN-enhanced retrieval to generate the final recommendation results. The proposed framework leverages the reasoning capabilities of LLMs during the retrieval process, while seamlessly integrating GNNs to enhance overall recommendation performance. Extensive experiments on various datasets and settings demonstrate that our proposed CORONA achieves state-of-the-art performance with an 18.6% relative improvement in recall and an 18.4% relative improvement in NDCG on average.
- Abstract(参考訳): Recommender System (RS) は、ユーザーが大きなプールから興味を持つかもしれない候補アイテムを検索するように設計されている。
一般的なアプローチは、グラフニューラルネットワーク(GNN)を使用して、高次の相互作用関係をキャプチャする。
大規模言語モデル(LLM)はドメイン間で強力な能力を示しており、研究者は推奨を強化するためにその使用を検討している。
しかしながら、以前の作業では、LSMは結果の再評価やデータセットの拡張に制限されており、候補フィルタリング時にそのパワーを利用できない。
その代わりに、候補フィルタリングプロセスにおいてLLMの推論能力を活用することを提案し、LLMの助けを借りて、対話グラフ上の候補項目の範囲を徐々に狭めるために、Chein Of Retrieval ON grAphs(CORONA)を導入している。(1) まず、LLMは、ユーザプロファイルに基づいて、対話グラフから関連ユーザや項目を抽出するクエリーとして、その応答を行う。
提案フレームワークは,検索過程におけるLLMの推論機能を活用するとともに,GNNをシームレスに統合し,全体的なレコメンデーション性能を向上させる。
様々なデータセットと設定に関する大規模な実験により、提案したCORONAは、リコールの18.6%、NDCGの平均の18.4%の相対的な改善により、最先端のパフォーマンスを達成することが示された。
関連論文リスト
- LLM-Augmented Graph Neural Recommenders: Integrating User Reviews [2.087411180679868]
本稿では,グラフニューラルネットワーク(GNN)ベースのモデルと大規模言語モデル(LLM)を用いて,レビューアウェアな表現を生成するフレームワークを提案する。
提案手法は,ユーザの行動信号と言語信号の両方が効果的に捕捉されるように,テキストから得られる特徴に対するユーザとテムの相互作用のバランスをとる。
論文 参考訳(メタデータ) (2025-04-03T00:40:09Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - RecLM: Recommendation Instruction Tuning [17.780484832381994]
本稿では,大規模言語モデルと協調フィルタリングをシームレスに統合するモデル非依存の指導訓練パラダイムを提案する。
提案した$underlineRec$ommendationは、慎重に設計された強化学習報酬関数により、ユーザの好みの多様性を捕捉する。
論文 参考訳(メタデータ) (2024-12-26T17:51:54Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Collaboration-Aware Graph Convolutional Networks for Recommendation
Systems [14.893579746643814]
グラフニューラルネットワーク(GNN)はレコメンデーションシステムでうまく採用されている。
メッセージパッシングは、埋め込みプロセスに協調的な効果を暗黙的に注入する。
メッセージパッシングが協調的な効果をいかに捉えているのかを包括的に調査する研究はない。
我々は、推薦調整されたGNN、Augmented Collaboration-Aware Graph Conal Network (CAGCN*)を提案する。
論文 参考訳(メタデータ) (2022-07-03T18:03:46Z) - Broad Recommender System: An Efficient Nonlinear Collaborative Filtering
Approach [56.12815715932561]
我々はBroad Collaborative Filtering (BroadCF)と呼ばれる新しい広帯域リコメンデータシステムを提案する。
深層ニューラルネットワーク(DNN)の代わりに、ユーザとアイテム間の複雑な非線形関係を学習するためのマッピング機能として、Broad Learning System(BLS)が使用されている。
7つのベンチマークデータセットで実施された大規模な実験により、提案したBroadCFアルゴリズムの有効性が確認された。
論文 参考訳(メタデータ) (2022-04-20T01:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。