論文の概要: A Review of LLM-based Explanations in Recommender Systems
- arxiv url: http://arxiv.org/abs/2411.19576v1
- Date: Fri, 29 Nov 2024 09:47:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:18:13.167270
- Title: A Review of LLM-based Explanations in Recommender Systems
- Title(参考訳): LLMによるレコメンダシステムの解説
- Authors: Alan Said,
- Abstract要約: LLM(Large Language Models)の台頭により、レコメンダシステムを強化する新たな機会が開かれた。
本稿では,レコメンデーションのための説明書作成にLLMを活用することに焦点を当てた体系的な文献レビューを行う。
- 参考スコア(独自算出の注目度): 0.21756081703275998
- License:
- Abstract: The rise of Large Language Models (LLMs), such as LLaMA and ChatGPT, has opened new opportunities for enhancing recommender systems through improved explainability. This paper provides a systematic literature review focused on leveraging LLMs to generate explanations for recommendations -- a critical aspect for fostering transparency and user trust. We conducted a comprehensive search within the ACM Guide to Computing Literature, covering publications from the launch of ChatGPT (November 2022) to the present (November 2024). Our search yielded 232 articles, but after applying inclusion criteria, only six were identified as directly addressing the use of LLMs in explaining recommendations. This scarcity highlights that, despite the rise of LLMs, their application in explainable recommender systems is still in an early stage. We analyze these select studies to understand current methodologies, identify challenges, and suggest directions for future research. Our findings underscore the potential of LLMs improving explanations of recommender systems and encourage the development of more transparent and user-centric recommendation explanation solutions.
- Abstract(参考訳): LLaMAやChatGPTのようなLarge Language Models(LLM)の台頭は、説明可能性の向上を通じてレコメンダシステムを強化する新たな機会を開いた。
本稿では,LLMを活用してレコメンデーションの説明を生成するという,透明性とユーザ信頼を育む上で重要な側面について,体系的な文献レビューを行う。
我々はACM Guide to Computing Literatureの中で総合的な検索を行い、2022年11月のChatGPTの立ち上げから2024年11月の現在までの出版物を網羅した。
対象は232項目であったが, 包括的基準を適用した結果, LLMを推奨に用いた例は6例のみであった。
この不足は、LSMの台頭にもかかわらず、説明可能なレコメンデータシステムにおける彼らの応用がまだ初期段階にあることを強調している。
本研究では,これらの研究を解析し,現在の方法論を理解し,課題を特定し,今後の研究の方向性を提案する。
本研究は,LLMがレコメンデーションシステムの説明を改善し,より透明でユーザ中心のレコメンデーション説明ソリューションの開発を奨励する可能性を明らかにするものである。
関連論文リスト
- Towards Next-Generation LLM-based Recommender Systems: A Survey and Beyond [41.08716571288641]
本論では,本質的なレコメンデーションに端を発する新しい分類法を紹介する。
本稿では,レコメンデーションシステムの発達過程をより正確に反映した3層構造を提案する。
論文 参考訳(メタデータ) (2024-10-10T08:22:04Z) - All Roads Lead to Rome: Unveiling the Trajectory of Recommender Systems Across the LLM Era [63.649070507815715]
我々は、リコメンデータシステムをより広い視野に統合し、将来の研究のためのより包括的なソリューションの道を開くことを目指しています。
我々は、リストワイズレコメンデーションと会話レコメンデーションを通じて、現代のレコメンデーションシステムの2つの進化経路を特定する。
本稿では,ユーザの獲得コストを削減しつつ,推薦情報の有効性を高めることを指摘する。
論文 参考訳(メタデータ) (2024-07-14T05:02:21Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Exploring the Impact of Large Language Models on Recommender Systems: An Extensive Review [2.780460221321639]
本稿では,リフォームレコメンダシステムにおける大規模言語モデルの重要性について述べる。
LLMは、言葉の複雑な解釈において、その適応性を示す、アイテムを推薦するのに非常に熟練している。
トランスフォーメーションの可能性にもかかわらず、入力プロンプトに対する感受性、時には誤解釈、予期せぬ推奨など、課題は続いている。
論文 参考訳(メタデータ) (2024-02-11T00:24:17Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。