論文の概要: How Can Recommender Systems Benefit from Large Language Models: A Survey
- arxiv url: http://arxiv.org/abs/2306.05817v5
- Date: Fri, 2 Feb 2024 12:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:17:16.325850
- Title: How Can Recommender Systems Benefit from Large Language Models: A Survey
- Title(参考訳): 大規模言語モデルからレコメンダシステムにどのようなメリットがあるか:調査
- Authors: Jianghao Lin, Xinyi Dai, Yunjia Xi, Weiwen Liu, Bo Chen, Hao Zhang,
Yong Liu, Chuhan Wu, Xiangyang Li, Chenxu Zhu, Huifeng Guo, Yong Yu, Ruiming
Tang, Weinan Zhang
- Abstract要約: 大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
- 参考スコア(独自算出の注目度): 83.90471827695625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of online services, recommender systems (RS) have
become increasingly indispensable for mitigating information overload. Despite
remarkable progress, conventional recommendation models (CRM) still have some
limitations, e.g., lacking open-world knowledge, and difficulties in
comprehending users' underlying preferences and motivations. Meanwhile, large
language models (LLM) have shown impressive general intelligence and human-like
capabilities, which mainly stem from their extensive open-world knowledge,
reasoning ability, as well as their comprehension of human culture and society.
Consequently, the emergence of LLM is inspiring the design of recommender
systems and pointing out a promising research direction, i.e., whether we can
incorporate LLM and benefit from their knowledge and capabilities to compensate
for the limitations of CRM. In this paper, we conduct a comprehensive survey on
this research direction from the perspective of the whole pipeline in
real-world recommender systems. Specifically, we summarize existing works from
two orthogonal aspects: where and how to adapt LLM to RS. For the WHERE
question, we discuss the roles that LLM could play in different stages of the
recommendation pipeline, i.e., feature engineering, feature encoder,
scoring/ranking function, user interaction, and pipeline controller. For the
HOW question, we investigate the training and inference strategies, resulting
in two fine-grained taxonomy criteria, i.e., whether to tune LLM or not, and
whether to involve conventional recommendation models for inference. Then, we
highlight key challenges in adapting LLM to RS from three aspects, i.e.,
efficiency, effectiveness, and ethics. Finally, we summarize the survey and
discuss the future prospects. We actively maintain a GitHub repository for
papers and other related resources:
https://github.com/CHIANGEL/Awesome-LLM-for-RecSys/.
- Abstract(参考訳): オンラインサービスの急速な発展に伴い、リコメンダシステム(rs)は情報過負荷の軽減にますます不可欠になっている。
目覚ましい進歩にもかかわらず、従来のレコメンデーションモデル(CRM)には、オープンワールド知識の欠如、ユーザの基本的な好みやモチベーションの理解の困難など、いくつかの制限がある。
一方、大きな言語モデル(LLM)は、その広範なオープンワールドの知識、推論能力、そして人間の文化や社会の理解から生まれた、印象的な汎用知性と人間のような能力を示している。
その結果、LLMの出現はレコメンダシステムの設計を刺激し、将来性のある研究方向、すなわち、LLMを取り入れてCRMの限界を補うための知識と能力の恩恵を受けることができるかどうかを指摘する。
本稿では,本研究の方向性について,実世界のレコメンダシステムにおけるパイプライン全体の観点から総合的な調査を行う。
具体的には、2つの直交的な側面から既存の作品を要約する: LLM を RS に適用する場所と方法。
WHERE質問では,LLMがレコメンデーションパイプラインのさまざまな段階,すなわち機能工学,機能エンコーダ,スコアリング/ランク機能,ユーザインタラクション,パイプラインコントローラで果たす役割について議論する。
HOW質問では、トレーニングと推論戦略について検討し、2つのきめ細かい分類基準、すなわち、LSMをチューニングするか否か、推論のための従来の推奨モデルを含むべきかを考察した。
次に,3つの側面,すなわち効率性,有効性,倫理性から,LSMをRSに適用する上での課題を強調した。
最後に,調査の概要と今後の展望について考察する。
論文やその他の関連リソースのGitHubリポジトリを積極的に管理しています。
関連論文リスト
- Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - The Development of LLMs for Embodied Navigation [17.540886683315712]
この記事では、Large Language ModelsとEmbodied Intelligenceの共生について概説する。
最先端のモデル、研究方法論をレビューし、既存の埋め込みナビゲーションモデルとデータセットの利点とデメリットを評価する。
最後に, 本論文は, インテリジェンスにおけるLLMの役割を解明し, 今後の方向性を予測している。
論文 参考訳(メタデータ) (2023-11-01T14:08:56Z) - Exploring Parameter-Efficient Fine-Tuning Techniques for Code Generation
with Large Language Models [12.708117108874083]
大きな言語モデル(LLM)は、ゼロショットで自然言語の意図を与えられたコードスニペットを生成する。
従来の研究は、タスク固有のプロンプト例でLLM生成プロセスを導く戦略として、インコンテキストラーニング(ICL)を探求していた。
本稿では,本論文の総合的研究について述べる。
自動コード生成シナリオにおけるLLMのためのPEFT技術。
論文 参考訳(メタデータ) (2023-08-21T04:31:06Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Recommender Systems in the Era of Large Language Models (LLMs) [36.87760144204833]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。