論文の概要: Augment or Not? A Comparative Study of Pure and Augmented Large Language Model Recommenders
- arxiv url: http://arxiv.org/abs/2505.23053v1
- Date: Thu, 29 May 2025 03:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.661903
- Title: Augment or Not? A Comparative Study of Pure and Augmented Large Language Model Recommenders
- Title(参考訳): 増補か否か? 純粋および増補された大言語モデルレコメンダの比較研究
- Authors: Wei-Hsiang Huang, Chen-Wei Ke, Wei-Ning Chiu, Yu-Xuan Su, Chun-Chun Yang, Chieh-Yuan Cheng, Yun-Nung Chen, Pu-Jen Cheng,
- Abstract要約: 大規模言語モデル(LLM)は、より豊かな意味理解を可能にし、暗黙の世界知識を取り入れることで、推薦システムのための新しいパラダイムを導入している。
本稿では,既存のアプローチを分類する体系的な分類法を提案する。(1) LLMのみに依存した純粋LLMレコメンダ,(2)LLM以外の追加技術を統合して性能を向上させる拡張LLMレコメンダ,である。
- 参考スコア(独自算出の注目度): 17.552417918986958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have introduced new paradigms for recommender systems by enabling richer semantic understanding and incorporating implicit world knowledge. In this study, we propose a systematic taxonomy that classifies existing approaches into two categories: (1) Pure LLM Recommenders, which rely solely on LLMs, and (2) Augmented LLM Recommenders, which integrate additional non-LLM techniques to enhance performance. This taxonomy provides a novel lens through which to examine the evolving landscape of LLM-based recommendation. To support fair comparison, we introduce a unified evaluation platform that benchmarks representative models under consistent experimental settings, highlighting key design choices that impact effectiveness. We conclude by discussing open challenges and outlining promising directions for future research. This work offers both a comprehensive overview and practical guidance for advancing next-generation LLM-powered recommender.
- Abstract(参考訳): 大規模言語モデル(LLM)は、より豊かな意味理解を可能にし、暗黙の世界知識を取り入れることで、推薦システムのための新しいパラダイムを導入している。
本研究では,既存のアプローチを分類する系統分類法を提案する。(1) LLMのみに依存した純粋LLMレコメンダ,(2) LLMレコメンダ,(2)LLM以外の追加技術を統合して性能を向上させる拡張LDMレコメンダである。
この分類法は、LSMに基づく推奨の進化の展望を調べるための新しいレンズを提供する。
公平な比較を支援するため、一貫した実験環境下で代表モデルのベンチマークを行う統一評価プラットフォームを導入し、有効性に影響を与える重要な設計選択を強調した。
オープンな課題を議論し、今後の研究に向けた有望な方向性を概説することで締めくくります。
本研究は,次世代LLMリコメンデータを推進するための総合的概要と実践的ガイダンスを提供する。
関連論文リスト
- Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。