論文の概要: MARC: Multimodal and Multi-Task Agentic Retrieval-Augmented Generation for Cold-Start Recommender System
- arxiv url: http://arxiv.org/abs/2511.08181v1
- Date: Wed, 12 Nov 2025 01:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.683069
- Title: MARC: Multimodal and Multi-Task Agentic Retrieval-Augmented Generation for Cold-Start Recommender System
- Title(参考訳): MARC:コールドスタートレコメンダシステムのためのマルチモーダル・マルチタスクエージェント検索生成
- Authors: Seung Hwan Cho, Yujin Yang, Danik Baeck, Minjoo Kim, Young-Min Kim, Heejung Lee, Sangjin Park,
- Abstract要約: エージェント検索・拡張生成(RAG)に基づくマルチモーダル・マルチタスクカクテル推薦システム MARC を提案する。
提案システムは,タスク認識ルータとリフレクション処理という2つのコアプロセスを通じて,高品質で適切な回答を生成する。
評価はLLM-as-a-judgeと人的評価の両方を用いて、グラフデータベースによって生成された回答が、品質の観点から単純なベクトルデータベースよりも優れていることを示した。
- 参考スコア(独自算出の注目度): 10.701260926113504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems (RS) are currently being studied to mitigate limitations during cold-start conditions by leveraging modality information or introducing Agent concepts based on the exceptional reasoning capabilities of Large Language Models (LLMs). Meanwhile, food and beverage recommender systems have traditionally used knowledge graph and ontology concepts due to the domain's unique data attributes and relationship characteristics. On this background, we propose MARC, a multimodal and multi-task cocktail recommender system based on Agentic Retrieval-Augmented Generation (RAG) utilizing graph database under cold-start conditions. The proposed system generates high-quality, contextually appropriate answers through two core processes: a task recognition router and a reflection process. The graph database was constructed by processing cocktail data from Kaggle, and its effectiveness was evaluated using 200 manually crafted questions. The evaluation used both LLM-as-a-judge and human evaluation to demonstrate that answers generated via the graph database outperformed those from a simple vector database in terms of quality. The code is available at https://github.com/diddbwls/cocktail_rec_agentrag
- Abstract(参考訳): 現在,大規模な言語モデル(LLM)の例外的推論能力に基づいて,モダリティ情報を活用するか,エージェントの概念を導入することで,冷間開始時の制約を軽減するために,レコメンダシステム(RS)が研究されている。
一方、食品と飲料のレコメンデーターシステムは、ドメイン固有のデータ属性と関係特性のために、伝統的に知識グラフとオントロジーの概念を用いてきた。
そこで本研究では,冷間開始条件下でのグラフデータベースを利用したエージェント検索・拡張生成(RAG)に基づくマルチモーダル・マルチタスクカクテルレコメンデータシステムであるMARCを提案する。
提案システムは,タスク認識ルータとリフレクション処理という2つのコアプロセスを通じて,高品質で適切な回答を生成する。
グラフデータベースは、Kaggleからカクテルデータを処理して構築され、200の手作業による質問を用いて、その有効性を評価した。
評価はLLM-as-a-judgeと人的評価の両方を用いて、グラフデータベースによって生成された回答が、品質の観点から単純なベクトルデータベースよりも優れていることを示した。
コードはhttps://github.com/diddbwls/cocktail_rec_agentragで公開されている。
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - TeaRAG: A Token-Efficient Agentic Retrieval-Augmented Generation Framework [62.66056331998838]
TeaRAGは、検索内容と推論ステップの両方を圧縮できるトークン効率のエージェントRAGフレームワークである。
報奨関数は,過剰な推論ステップをペナルティ化しながら,知識マッチング機構によって知識満足度を評価する。
論文 参考訳(メタデータ) (2025-11-07T16:08:34Z) - Cold-Start Recommendation with Knowledge-Guided Retrieval-Augmented Generation [40.29333074640531]
ColdRAGは、ドメイン固有の知識グラフを構築する、検索強化された生成アプローチである。
我々は,ColdRAGがリコールやNDCGの既存のゼロショットベースラインを超えることを示す。
このフレームワークは,知識グラフ推論とLLM生成を組み合わせ,コールドスタートレコメンデーションの実践的解決策を提供する。
論文 参考訳(メタデータ) (2025-05-27T06:23:26Z) - AgentRecBench: Benchmarking LLM Agent-based Personalized Recommender Systems [17.329692234349768]
エージェントレコメンデータシステムはLarge Language Models (LLM)を利用している
LLMの高度な推論とロールプレイング能力は、自律的で適応的な意思決定を可能にする。
この分野では、これらの手法を評価するための標準化された評価プロトコルが欠けている。
論文 参考訳(メタデータ) (2025-05-26T07:45:11Z) - ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデルに統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - QuIM-RAG: Advancing Retrieval-Augmented Generation with Inverted Question Matching for Enhanced QA Performance [1.433758865948252]
本研究では,RAG(Retrieval-Augmented Generation)システム構築のための新しいアーキテクチャを提案する。
RAGアーキテクチャは、ターゲット文書から応答を生成するために構築される。
本稿では,本システムにおける検索機構の新しいアプローチQuIM-RAGを紹介する。
論文 参考訳(メタデータ) (2025-01-06T01:07:59Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - A Review of Modern Recommender Systems Using Generative Models (Gen-RecSys) [57.30228361181045]
この調査は、ジェネレーティブモデル(Gen-RecSys)を用いたレコメンデーションシステムにおける重要な進歩を結びつける。
対話駆動生成モデル、自然言語レコメンデーションのための大規模言語モデル(LLM)とテキストデータの使用、RSにおける画像やビデオの生成と処理のためのマルチモーダルモデルの統合。
我々の研究は、Gen-RecSysの影響と害を評価するために必要なパラダイムを強調し、オープンな課題を特定します。
論文 参考訳(メタデータ) (2024-03-31T06:57:57Z) - Retrieval Augmented Generation Systems: Automatic Dataset Creation,
Evaluation and Boolean Agent Setup [5.464952345664292]
Retrieval Augmented Generation (RAG) システムは、Large-Language Model (LLM) 出力をドメイン固有データと時間機密データで拡張することで大きな人気を得ている。
本稿では,RAG戦略を定量的に比較するために,厳密なデータセット作成と評価のワークフローを提案する。
論文 参考訳(メタデータ) (2024-02-26T12:56:17Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。