論文の概要: How Can Recommender Systems Benefit from Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2306.05817v6
- Date: Tue, 9 Jul 2024 13:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 00:40:48.409137
- Title: How Can Recommender Systems Benefit from Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルからレコメンダシステムにどのようなメリットがあるか:調査
- Authors: Jianghao Lin, Xinyi Dai, Yunjia Xi, Weiwen Liu, Bo Chen, Hao Zhang, Yong Liu, Chuhan Wu, Xiangyang Li, Chenxu Zhu, Huifeng Guo, Yong Yu, Ruiming Tang, Weinan Zhang,
- Abstract要約: 大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
- 参考スコア(独自算出の注目度): 82.06729592294322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of online services, recommender systems (RS) have become increasingly indispensable for mitigating information overload. Despite remarkable progress, conventional recommendation models (CRM) still have some limitations, e.g., lacking open-world knowledge, and difficulties in comprehending users' underlying preferences and motivations. Meanwhile, large language models (LLM) have shown impressive general intelligence and human-like capabilities, which mainly stem from their extensive open-world knowledge, reasoning ability, as well as their comprehension of human culture and society. Consequently, the emergence of LLM is inspiring the design of recommender systems and pointing out a promising research direction, i.e., whether we can incorporate LLM and benefit from their knowledge and capabilities to compensate for the limitations of CRM. In this paper, we conduct a comprehensive survey on this research direction from the perspective of the whole pipeline in real-world recommender systems. Specifically, we summarize existing works from two orthogonal aspects: where and how to adapt LLM to RS. For the WHERE question, we discuss the roles that LLM could play in different stages of the recommendation pipeline, i.e., feature engineering, feature encoder, scoring/ranking function, user interaction, and pipeline controller. For the HOW question, we investigate the training and inference strategies, resulting in two fine-grained taxonomy criteria, i.e., whether to tune LLM or not, and whether to involve conventional recommendation models for inference. Then, we highlight key challenges in adapting LLM to RS from three aspects, i.e., efficiency, effectiveness, and ethics. Finally, we summarize the survey and discuss the future prospects. We actively maintain a GitHub repository for papers and other related resources: https://github.com/CHIANGEL/Awesome-LLM-for-RecSys/.
- Abstract(参考訳): オンラインサービスの急速な発展に伴い、情報過負荷を軽減するためにレコメンダシステム(RS)はますます不可欠になっている。
目覚ましい進歩にもかかわらず、従来のレコメンデーションモデル(CRM)には、例えば、オープンワールドの知識の欠如、ユーザの基本的な好みやモチベーションを理解するのに困難がある。
一方、大きな言語モデル(LLM)は、その広範なオープンワールドの知識、推論能力、そして人間の文化や社会の理解から生まれた、印象的な汎用知能と人間のような能力を示してきた。
その結果、LLMの出現はレコメンダシステムの設計を刺激し、将来性のある研究方向、すなわち、LLMを取り入れてCRMの限界を補うための知識と能力の恩恵を享受できるかどうかを指摘する。
本稿では,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
具体的には、2つの直交的な側面から既存の作品を要約する: LLM を RS に適用する場所と方法。
WHERE質問では,LLMがレコメンデーションパイプラインのさまざまな段階,すなわち機能工学,機能エンコーダ,スコアリング/ランク機能,ユーザインタラクション,パイプラインコントローラで果たす役割について議論する。
HOW質問では、トレーニングと推論戦略について検討し、2つのきめ細かい分類基準、すなわち、LSMをチューニングするか否か、推論のための従来の推奨モデルを含むべきかを結論付けている。
次に,3つの側面,すなわち効率性,有効性,倫理性から,LSMをRSに適用する上での課題を強調した。
最後に,調査の概要と今後の展望について考察する。
論文やその他の関連リソースのGitHubリポジトリを積極的に管理しています。
関連論文リスト
- Generative Large Recommendation Models: Emerging Trends in LLMs for Recommendation [85.52251362906418]
このチュートリアルでは、大規模言語モデル(LLM)を統合するための2つの主要なアプローチを探求する。
これは、最近の進歩、課題、潜在的研究の方向性を含む、生成的な大規模なレコメンデーションモデルの包括的な概要を提供する。
主なトピックは、データ品質、スケーリング法則、ユーザの行動マイニング、トレーニングと推論の効率性である。
論文 参考訳(メタデータ) (2025-02-19T14:48:25Z) - LLM is Knowledge Graph Reasoner: LLM's Intuition-aware Knowledge Graph Reasoning for Cold-start Sequential Recommendation [47.34949656215159]
大規模言語モデル(LLM)は、Webデータから学習された豊富な知識を持つデータベースとみなすことができる。
LLMの直感認識型知識グラフ推論モデル(LIKR)を提案する。
本モデルは,コールドスタートシーケンシャルレコメンデーションシナリオにおいて,最先端レコメンデーション手法より優れている。
論文 参考訳(メタデータ) (2024-12-17T01:52:15Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。