論文の概要: Unlocking the Potential of Large Language Models for Explainable
Recommendations
- arxiv url: http://arxiv.org/abs/2312.15661v1
- Date: Mon, 25 Dec 2023 09:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:03:53.751387
- Title: Unlocking the Potential of Large Language Models for Explainable
Recommendations
- Title(参考訳): 説明可能な勧告のための大規模言語モデルの可能性の解き放つ
- Authors: Yucong Luo, Mingyue Cheng, Hao Zhang, Junyu Lu, Enhong Chen
- Abstract要約: 説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
- 参考スコア(独自算出の注目度): 54.70293211079003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating user-friendly explanations regarding why an item is recommended
has become increasingly common, largely due to advances in language generation
technology, which can enhance user trust and facilitate more informed
decision-making when using online services. However, existing explainable
recommendation systems focus on using small-size language models. It remains
uncertain what impact replacing the explanation generator with the recently
emerging large language models (LLMs) would have. Can we expect unprecedented
results?
In this study, we propose LLMXRec, a simple yet effective two-stage
explainable recommendation framework aimed at further boosting the explanation
quality by employing LLMs. Unlike most existing LLM-based recommendation works,
a key characteristic of LLMXRec is its emphasis on the close collaboration
between previous recommender models and LLM-based explanation generators.
Specifically, by adopting several key fine-tuning techniques, including
parameter-efficient instructing tuning and personalized prompt techniques,
controllable and fluent explanations can be well generated to achieve the goal
of explanation recommendation. Most notably, we provide three different
perspectives to evaluate the effectiveness of the explanations. Finally, we
conduct extensive experiments over several benchmark recommender models and
publicly available datasets. The experimental results not only yield positive
results in terms of effectiveness and efficiency but also uncover some
previously unknown outcomes. To facilitate further explorations in this area,
the full code and detailed original results are open-sourced at
https://anonymous.4open.science/r/LLM_rec_explanation-7028/
- Abstract(参考訳): オンラインサービスを利用する際に、ユーザの信頼を高め、よりインフォームドな意思決定を容易にする言語生成技術の進歩により、アイテムが推奨される理由に関するユーザフレンドリな説明がますます一般的になっている。
しかし、既存の説明可能なレコメンデーションシステムは、小型言語モデルの使用に重点を置いている。
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
前例のない結果が期待できますか。
本研究では,LLMXRecを提案する。LLMXRecはシンプルだが効果的な2段階説明可能な推薦フレームワークである。
既存のLLMベースのレコメンデーションワークとは異なり、LLMXRecの重要な特徴は、以前のレコメンデーターモデルとLCMベースの説明ジェネレータの密接なコラボレーションである。
具体的には、パラメータ効率の指導的チューニングやパーソナライズされたプロンプト技術など、いくつかの重要な微調整手法を採用することで、説明の目的を達成するために、制御可能で流動的な説明を生成することができる。
とくに、説明の有効性を評価するために、3つの異なる視点を提供する。
最後に、いくつかのベンチマークレコメンデータモデルと公開データセットについて広範な実験を行う。
実験の結果は有効性と効率の点で肯定的な結果を得るだけでなく、これまで知らなかった結果も明らかにする。
この領域のさらなる調査を容易にするため、完全なコードと詳細なオリジナルの結果はhttps://anonymous.4open.science/r/LLM_rec_explanation-7028/でオープンソース化されている。
関連論文リスト
- GOT4Rec: Graph of Thoughts for Sequential Recommendation [25.03964361177406]
GOT4Recは、思考のグラフ(GoT)のプロンプト戦略を利用するシーケンシャルレコメンデーション手法である。
我々は,ユーザ履歴シーケンスにおいて,短期的関心事,長期的関心事,他ユーザからの協力的情報という3つの重要な情報を識別し,活用する。
実世界のデータセットに対する大規模な実験は、GOT4Recの有効性を示し、既存の最先端ベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-22T13:24:01Z) - ReasoningRec: Bridging Personalized Recommendations and Human-Interpretable Explanations through LLM Reasoning [15.049688896236821]
本稿では、推論に基づくレコメンデーションフレームワークReasoningRecについて述べる。
ReasoningRecはレコメンデーションと人間の解釈可能な説明のギャップを埋める。
実証的な評価では、ReasoningRecは最先端の手法を最大12.5%上回っている。
論文 参考訳(メタデータ) (2024-10-30T16:37:04Z) - User Preferences for Large Language Model versus Template-Based Explanations of Movie Recommendations: A Pilot Study [0.6965384453064829]
大規模言語モデル(LLM)は、レコメンダシステムに対してより共鳴的な説明を生成することができる。
25名の被験者を対象にパイロット実験を行った。
LLMに基づく説明がよりリッチで魅力的なユーザエクスペリエンスを提供する可能性を示唆する予備的な研究結果が得られた。
論文 参考訳(メタデータ) (2024-09-10T07:51:53Z) - XRec: Large Language Models for Explainable Recommendation [5.615321475217167]
我々は、XRecと呼ばれるモデルに依存しないフレームワークを導入し、大規模言語モデルがレコメンデーションシステムにおけるユーザの振る舞いを説明することを可能にする。
我々の実験は、説明可能なレコメンデータシステムにおいて、ベースラインアプローチよりも優れた、包括的で意味のある説明を生成するXRecの能力を実証した。
論文 参考訳(メタデータ) (2024-06-04T14:55:14Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。