論文の概要: Enhancing LLM-based Recommendation with Preference Hint Discovery from Knowledge Graph
- arxiv url: http://arxiv.org/abs/2601.18096v1
- Date: Mon, 26 Jan 2026 03:20:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.632899
- Title: Enhancing LLM-based Recommendation with Preference Hint Discovery from Knowledge Graph
- Title(参考訳): 知識グラフからの選好ヒント発見によるLLMに基づく勧告の強化
- Authors: Yuting Zhang, Ziliang Pei, Chao Wang, Ying Sun, Fuzhen Zhuang,
- Abstract要約: インタラクション統合知識グラフに基づく嗜好ヒント発見モデルを提案する。
候補属性の選好信頼性を定量化するために, インスタンス単位の二重アテンション機構を開発する。
- 参考スコア(独自算出の注目度): 26.065016082075264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs have garnered substantial attention in recommendation systems. Yet they fall short of traditional recommenders when capturing complex preference patterns. Recent works have tried integrating traditional recommendation embeddings into LLMs to resolve this issue, yet a core gap persists between their continuous embedding and discrete semantic spaces. Intuitively, textual attributes derived from interactions can serve as critical preference rationales for LLMs' recommendation logic. However, directly inputting such attribute knowledge presents two core challenges: (1) Deficiency of sparse interactions in reflecting preference hints for unseen items; (2) Substantial noise introduction from treating all attributes as hints. To this end, we propose a preference hint discovery model based on the interaction-integrated knowledge graph, enhancing LLM-based recommendation. It utilizes traditional recommendation principles to selectively extract crucial attributes as hints. Specifically, we design a collaborative preference hint extraction schema, which utilizes semantic knowledge from similar users' explicit interactions as hints for unseen items. Furthermore, we develop an instance-wise dual-attention mechanism to quantify the preference credibility of candidate attributes, identifying hints specific to each unseen item. Using these item- and user-based hints, we adopt a flattened hint organization method to shorten input length and feed the textual hint information to the LLM for commonsense reasoning. Extensive experiments on both pair-wise and list-wise recommendation tasks verify the effectiveness of our proposed framework, indicating an average relative improvement of over 3.02% against baselines.
- Abstract(参考訳): LLMはレコメンデーションシステムにおいてかなりの注目を集めている。
しかし、複雑な好みのパターンを捉える際には、従来のレコメンデーションに欠ける。
近年の研究では、従来のレコメンデーション埋め込みをLCMに組み込んでこの問題を解決する試みがなされているが、連続的な埋め込みと離散的なセマンティック空間の間にはコアギャップが持続している。
直感的には、相互作用から派生したテキスト属性は、LLMの推奨論理の批判的選好論理として機能する。
しかし,このような属性知識を直接入力することは,(1)見知らぬ項目の選好ヒントを反映するスパース相互作用の欠如,(2)全ての属性をヒントとして扱うことによる実体ノイズの導入,という2つの課題を提起する。
そこで本研究では,対話統合知識グラフに基づく選好ヒント発見モデルを提案する。
従来の推奨原則を利用して、重要な属性をヒントとして選択的に抽出する。
具体的には、類似ユーザの明示的なインタラクションから意味的な知識を、目に見えない項目のヒントとして活用する、協調的な選好ヒント抽出スキーマを設計する。
さらに、候補属性の選好信頼度を定量化し、未確認項目ごとに特異的なヒントを特定するための、インスタンス単位の二重注意機構を開発する。
これらの項目とユーザベースのヒントを用いて、入力長を短くし、テキストのヒント情報をLLMに供給し、コモンセンス推論を行う。
また,提案手法の有効性を検証し,ベースラインに対して平均3.02%以上の相対的改善が得られた。
関連論文リスト
- MR.Rec: Synergizing Memory and Reasoning for Personalized Recommendation Assistant with LLMs [23.593398623128735]
MR.Recは、LLM(Large Language Models)ベースのレコメンデーションのために、メモリと推論をシナジする新しいフレームワークである。
パーソナライズを実現するため、我々は、関連する外部メモリを効率よくインデックスし、検索する総合検索拡張生成システム(RAG)を開発した。
動的メモリ検索と適応推論を組み合わせることで、このアプローチはより正確でコンテキストを認識し、高度にパーソナライズされたレコメンデーションを保証する。
論文 参考訳(メタデータ) (2025-10-16T12:40:48Z) - AgentDR Dynamic Recommendation with Implicit Item-Item Relations via LLM-based Agents [42.177723613925146]
本稿では,LLM推論をスケーラブルなレコメンデーションツールでブリッジする新しいLLMエージェントフレームワークであるAgenDRを提案する。
提案手法は,複数のレコメンデーション出力を統合するためにLLMを活用しながら,従来のモデルに上位タスクを委譲する。
我々のフレームワークは、その基盤となるツールよりも平均して2倍改善され、優れたフルレベルのパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-10-07T05:48:05Z) - Towards Comprehensible Recommendation with Large Language Model Fine-tuning [41.218487308635126]
本稿では,コラボレーティブ・パースペクティブ・フレームワーク(CURec)によるレコメンデーションシステムのための新しいコンテンツ理解手法を提案する。
Curecは、より包括的なレコメンデーションのために、協調的なコンテンツ機能を生成する。
公開ベンチマークの実験では、既存の方法よりもCURecの方が優れていることが示されている。
論文 参考訳(メタデータ) (2025-08-11T03:55:31Z) - KERAG_R: Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation [8.64897967325355]
大規模言語モデル(LLM)は、文脈学習と一般化能力のために推奨システムに強い可能性を示している。
我々はKERAG_R(Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation)と呼ばれる新しいモデルを提案する。
具体的には、グラフ検索拡張生成(GraphRAG)コンポーネントを活用し、知識グラフからの付加情報をインストラクションに統合する。
提案したKERAG_Rモデルは,3つの公開データセットに対する実験により,既存の10種類の推奨手法を著しく上回る結果となった。
論文 参考訳(メタデータ) (2025-07-08T10:44:27Z) - R$^2$ec: Towards Large Recommender Models with Reasoning [59.32598867813266]
R$2$ecは、本質的な推論能力を持つ統一された大型レコメンデータモデルである。
R$2$ecは、推論チェーン生成と効率的なアイテム予測の両方を単一のモデルでサポートするデュアルヘッドアーキテクチャを導入している。
注釈付き推論データの欠如を克服するため、強化学習フレームワークであるRecPOを設計する。
論文 参考訳(メタデータ) (2025-05-22T17:55:43Z) - Graph Retrieval-Augmented LLM for Conversational Recommendation Systems [52.35491420330534]
G-CRS(Graph Retrieval-Augmented Large Language Model for Conversational Recommender Systems)は、グラフ検索強化世代とテキスト内学習を組み合わせた学習自由フレームワークである。
G-CRSは、タスク固有のトレーニングを必要とせず、既存の手法よりも優れたレコメンデーション性能を達成する。
論文 参考訳(メタデータ) (2025-03-09T03:56:22Z) - EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Improving LLM-powered Recommendations with Personalized Information [29.393390011083895]
我々は,2つの主要なChain-of-ThoughtプロセスとLLMによるレコメンデーションを統合したCoT-Recというパイプラインを提案する。
CoT-Recは,(1)パーソナライズされた情報抽出と(2)パーソナライズされた情報利用の2段階からなる。
実験結果から,CoT-RecはLLMによるレコメンデーションを改善する可能性が示唆された。
論文 参考訳(メタデータ) (2025-02-19T16:08:17Z) - Reasoning over User Preferences: Knowledge Graph-Augmented LLMs for Explainable Conversational Recommendations [58.61021630938566]
対話型レコメンデーションシステム(CRS)は,対話型対話を通じてユーザの好みを捉え,パーソナライズされたレコメンデーションを提供することを目的としている。
現在のCRSは、しばしば知識グラフ(KG)や言語モデルを利用して、ユーザの好みを潜在ベクトルとして抽出し、表現し、説明可能性を制限する。
本稿では,LCMとKGを相乗化してユーザの好みを推論し,既存のCRSの性能と説明可能性を高めるプラグイン・アンド・プレイ・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-16T11:47:21Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。