論文の概要: WebRec: Enhancing LLM-based Recommendations with Attention-guided RAG from Web
- arxiv url: http://arxiv.org/abs/2511.14182v1
- Date: Tue, 18 Nov 2025 06:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.971697
- Title: WebRec: Enhancing LLM-based Recommendations with Attention-guided RAG from Web
- Title(参考訳): WebRec: 注意誘導RAGによるLCMベースのレコメンデーションをWebから強化する
- Authors: Zihuai Zhao, Yujuan Ding, Wenqi Fan, Qing Li,
- Abstract要約: 検索強化世代(RAG)は、大規模言語モデル(LLM)の推薦機能を促進するために、関心が高まっている。
我々は,レコメンデーションタスクをWeb検索に適したユーザ好みのクエリに解釈するLLMの推論能力を活用する,新しいWebベースのRAGフレームワークであるWebRecを提案する。
- 参考スコア(独自算出の注目度): 20.26004984086557
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recommender systems play a vital role in alleviating information overload and enriching users' online experience. In the era of large language models (LLMs), LLM-based recommender systems have emerged as a prevalent paradigm for advancing personalized recommendations. Recently, retrieval-augmented generation (RAG) has drawn growing interest to facilitate the recommendation capability of LLMs, incorporating useful information retrieved from external knowledge bases. However, as a rich source of up-to-date information, the web remains under-explored by existing RAG-based recommendations. In particular, unique challenges are posed from two perspectives: one is to generate effective queries for web retrieval, considering the inherent knowledge gap between web search and recommendations; another challenge lies in harnessing online websites that contain substantial noisy content. To tackle these limitations, we propose WebRec, a novel web-based RAG framework, which takes advantage of the reasoning capability of LLMs to interpret recommendation tasks into queries of user preferences that cater to web retrieval. Moreover, given noisy web-retrieved information, where relevant pieces of evidence are scattered far apart, an insightful MP-Head is designed to enhance LLM attentions between distant tokens of relevant information via message passing. Extensive experiments have been conducted to demonstrate the effectiveness of our proposed web-based RAG methods in recommendation scenarios.
- Abstract(参考訳): レコメンダシステムは、情報の過負荷を軽減し、ユーザのオンライン体験を豊かにする上で重要な役割を担っている。
大規模言語モデル(LLM)の時代、LLMベースのレコメンデーションシステムはパーソナライズされたレコメンデーションを推進するための主要なパラダイムとして現れてきた。
近年、検索強化世代(RAG)は、外部知識ベースから取得した有用な情報を取り入れ、LLMの推薦機能を促進するために関心が高まりつつある。
しかし、最新の情報の豊富な情報源として、Webは既存のRAGベースのレコメンデーションによって探索されていないままである。
一つはWeb検索とレコメンデーションの固有の知識ギャップを考慮して、Web検索に効果的なクエリを生成することであり、もう一つは、かなりのノイズのあるコンテンツを含むオンラインウェブサイトを活用することである。
これらの制約に対処するために、LLMの推論能力を活用して、Web検索に係わるユーザの好みのクエリにレコメンデーションタスクを解釈する新しいWebベースのRAGフレームワークであるWebRecを提案する。
さらに、関連する証拠が遠くに散らばっているノイズの多いWeb検索情報を考えると、洞察に富んだMPヘッドは、メッセージパッシングを介して、関連する情報の遠いトークン間のLLM注意を高めるように設計されている。
提案手法の有効性を示すため,提案手法の有効性を示す大規模な実験を行った。
関連論文リスト
- CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation [66.51329063956538]
CARE(Contextual Adaptation of Recommenders)フレームワークを紹介します。
CAREはCRSタスクのために大きな言語モデルをカスタマイズし、それらを外部レコメンデーションシステムでシナジする。
本研究では,外部レコメンデータシステムとエンティティレベルの情報を統合することで,CRSのレコメンデーション精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-08-19T14:53:30Z) - KERAG_R: Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation [8.64897967325355]
大規模言語モデル(LLM)は、文脈学習と一般化能力のために推奨システムに強い可能性を示している。
我々はKERAG_R(Knowledge-Enhanced Retrieval-Augmented Generation for Recommendation)と呼ばれる新しいモデルを提案する。
具体的には、グラフ検索拡張生成(GraphRAG)コンポーネントを活用し、知識グラフからの付加情報をインストラクションに統合する。
提案したKERAG_Rモデルは,3つの公開データセットに対する実験により,既存の10種類の推奨手法を著しく上回る結果となった。
論文 参考訳(メタデータ) (2025-07-08T10:44:27Z) - Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation [41.42762478243583]
大規模言語モデル(LLM)は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
LLMは、LLMのバックボーン、特に幻覚の問題、最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
本稿では,知識グラフ(KG)から高品質かつ最新の構造情報を検索して,推薦を増強することを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:16:23Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - LLMs Know What They Need: Leveraging a Missing Information Guided Framework to Empower Retrieval-Augmented Generation [6.676337039829463]
ミス情報ガイド検索抽出パラダイム(MIGRES)を提案する。
欠落した情報の識別を利用して、その後の知識検索を操縦するターゲットクエリを生成する。
複数の公開データセットに対して行われた大規模な実験は、提案したMIGRES法の優位性を明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:56:59Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。