論文の概要: ARAG: Agentic Retrieval Augmented Generation for Personalized Recommendation
- arxiv url: http://arxiv.org/abs/2506.21931v1
- Date: Fri, 27 Jun 2025 05:45:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.1013
- Title: ARAG: Agentic Retrieval Augmented Generation for Personalized Recommendation
- Title(参考訳): ARAG:パーソナライズされたレコメンデーションのためのエージェント検索生成
- Authors: Reza Yousefi Maragheh, Pratheek Vadla, Priyank Gupta, Kai Zhao, Aysenur Inan, Kehui Yao, Jianpeng Xu, Praveen Kanumala, Jason Cho, Sushant Kumar,
- Abstract要約: ARAGはPersonalized RecommendationのためのAgenic Retrieval-Augmented Generationフレームワークである。
ARAGはマルチエージェントのコラボレーションメカニズムをRAGパイプラインに統合する。
ARAGは標準的なRAGとリレーシベースのベースラインを大きく上回っている。
- 参考スコア(独自算出の注目度): 9.099080929623156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) has shown promise in enhancing recommendation systems by incorporating external context into large language model prompts. However, existing RAG-based approaches often rely on static retrieval heuristics and fail to capture nuanced user preferences in dynamic recommendation scenarios. In this work, we introduce ARAG, an Agentic Retrieval-Augmented Generation framework for Personalized Recommendation, which integrates a multi-agent collaboration mechanism into the RAG pipeline. To better understand the long-term and session behavior of the user, ARAG leverages four specialized LLM-based agents: a User Understanding Agent that summarizes user preferences from long-term and session contexts, a Natural Language Inference (NLI) Agent that evaluates semantic alignment between candidate items retrieved by RAG and inferred intent, a context summary agent that summarizes the findings of NLI agent, and an Item Ranker Agent that generates a ranked list of recommendations based on contextual fit. We evaluate ARAG accross three datasets. Experimental results demonstrate that ARAG significantly outperforms standard RAG and recency-based baselines, achieving up to 42.1% improvement in NDCG@5 and 35.5% in Hit@5. We also, conduct an ablation study to analyse the effect by different components of ARAG. Our findings highlight the effectiveness of integrating agentic reasoning into retrieval-augmented recommendation and provide new directions for LLM-based personalization.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG)は、外部コンテキストを大きな言語モデルプロンプトに組み込むことによってレコメンデーションシステムを強化することを約束している。
しかしながら、既存のRAGベースのアプローチは静的な検索ヒューリスティックに依存しており、動的レコメンデーションシナリオにおいて、微妙なユーザの好みを捉えないことが多い。
本稿では,多エージェント協調機構をRAGパイプラインに統合したAgentic Retrieval-Augmented Generation framework for Personalized Recommendationを紹介する。
ユーザの長期的およびセッション的振る舞いをよりよく理解するために、ARAGは、長期的およびセッション的コンテキストからユーザの好みを要約するユーザ理解エージェント、RAGが検索した候補項目と推論意図のセマンティックアライメントを評価する自然言語推論エージェント、NLIエージェントの発見を要約するコンテキスト要約エージェント、コンテキスト適合に基づいた推奨事項のランク付けリストを生成するItem Ranker Agentの4つの特殊なLCMベースのエージェントを利用する。
3つのデータセットにまたがるARAGの評価を行った。
実験結果によると、ARAGは標準的なRAGと直流ベースラインを著しく上回り、NDCG@5では42.1%、Hit@5では35.5%改善している。
また,ARAGの異なる成分による影響を分析するためのアブレーション研究も行った。
本研究は, エージェント推論を検索強化レコメンデーションに統合し, LLMに基づくパーソナライズのための新たな方向性を提供することの有効性を明らかにする。
関連論文リスト
- AgentRecBench: Benchmarking LLM Agent-based Personalized Recommender Systems [17.329692234349768]
エージェントレコメンデータシステムはLarge Language Models (LLM)を利用している
LLMの高度な推論とロールプレイング能力は、自律的で適応的な意思決定を可能にする。
この分野では、これらの手法を評価するための標準化された評価プロトコルが欠けている。
論文 参考訳(メタデータ) (2025-05-26T07:45:11Z) - RAG-Gym: Systematic Optimization of Language Agents for Retrieval-Augmented Generation [43.50113345998687]
本稿では,(1)プロンプトエンジニアリング,(2)アクターチューニング,(3)批判的トレーニングという,3つの最適化次元を探求する総合的なプラットフォームであるRAG-Gymを紹介する。
本稿では,リフレクション推論を取り入れた新しいエージェントであるRe$2$Searchを提案する。
アクターチューニングにおいて,プロセスの監督をきめ細かい3つの人気のあるポストトレーニングアルゴリズムを評価し,直接選好最適化を最も効果的に評価する。
論文 参考訳(メタデータ) (2025-02-19T18:56:03Z) - C-3PO: Compact Plug-and-Play Proxy Optimization to Achieve Human-like Retrieval-Augmented Generation [13.120930059424975]
C-3POは、レトリバーと大規模言語モデル間の通信を容易にするプロキシ中心のフレームワークである。
我々のフレームワークは、RAGパイプライン全体を協調的に最適化する3つの特殊エージェントを実装している。
論文 参考訳(メタデータ) (2025-02-10T07:04:32Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - RPO: Retrieval Preference Optimization for Robust Retrieval-Augmented Generation [33.85528514353727]
本稿では,検索関連性に基づいた多元的知識を適応的に活用するRetrieval Preference Optimization (RPO)を提案する。
RPOは、トレーニングにおける検索関連性の認識を定量化する唯一のRAG指定アライメントアプローチである。
4つのデータセットの実験では、RPOは追加のコンポーネントを使わずに、RAGを4~10%精度で上回っている。
論文 参考訳(メタデータ) (2025-01-23T14:58:56Z) - Agentic Feedback Loop Modeling Improves Recommendation and User Simulation [55.857164472712455]
本稿では,リコメンデーションエージェントとユーザエージェントの協調を支援するために,フィードバックループプロセスを強調する新しいフレームワークを提案する。
この反復的なプロセスは、両方のエージェントがユーザの振る舞いを推測する能力を高め、より効果的なアイテムレコメンデーションとより正確なユーザーシミュレーションを可能にします。
論文 参考訳(メタデータ) (2024-10-26T00:51:39Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。