論文の概要: RecExplainer: Aligning Large Language Models for Recommendation Model
Interpretability
- arxiv url: http://arxiv.org/abs/2311.10947v1
- Date: Sat, 18 Nov 2023 03:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 13:21:01.721772
- Title: RecExplainer: Aligning Large Language Models for Recommendation Model
Interpretability
- Title(参考訳): RecExplainer: Recommendation Model Interpretabilityのための大規模言語モデルの調整
- Authors: Yuxuan Lei, Jianxun Lian, Jing Yao, Xu Huang, Defu Lian, Xing Xie
- Abstract要約: 本稿では,大規模言語モデルを代理モデルとして用いて,推薦システムに対する新しいモデル解釈手法を提案する。
具体的には,行動アライメント,意図アライメント,ハイブリッドアライメントという3つのアライメント手法を導入する。
提案手法により,LLMはレコメンデーションモデルのパターンを理解し,信頼性の高いレコメンデーション説明を生成することができる。
- 参考スコア(独自算出の注目度): 53.76682562935373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are widely used in various online services, with
embedding-based models being particularly popular due to their expressiveness
in representing complex signals. However, these models often lack
interpretability, making them less reliable and transparent for both users and
developers. With the emergence of large language models (LLMs), we find that
their capabilities in language expression, knowledge-aware reasoning, and
instruction following are exceptionally powerful. Based on this, we propose a
new model interpretation approach for recommender systems, by using LLMs as
surrogate models and learn to mimic and comprehend target recommender models.
Specifically, we introduce three alignment methods: behavior alignment,
intention alignment, and hybrid alignment. Behavior alignment operates in the
language space, representing user preferences and item information as text to
learn the recommendation model's behavior; intention alignment works in the
latent space of the recommendation model, using user and item representations
to understand the model's behavior; hybrid alignment combines both language and
latent spaces for alignment training. To demonstrate the effectiveness of our
methods, we conduct evaluation from two perspectives: alignment effect, and
explanation generation ability on three public datasets. Experimental results
indicate that our approach effectively enables LLMs to comprehend the patterns
of recommendation models and generate highly credible recommendation
explanations.
- Abstract(参考訳): Recommender システムは様々なオンラインサービスで広く使われており、埋め込みベースのモデルは複雑な信号を表現するために特に人気がある。
しかしながら、これらのモデルは解釈可能性に欠けることが多く、ユーザと開発者にとって信頼性が低く透明である。
大規模言語モデル (LLMs) の出現に伴い, 言語表現, 知識認識推論, 命令追従の能力は極めて強力であることが判明した。
そこで本研究では,llmをサロゲートモデルとして,ターゲットレコメンダモデルの模倣と理解を学ぶことにより,レコメンダシステムのための新しいモデル解釈手法を提案する。
具体的には,行動アライメント,意図アライメント,ハイブリッドアライメントという3つのアライメント手法を提案する。
振る舞いアライメントは言語空間で動作し、ユーザの好みとアイテム情報をテキストとして表現し、レコメンデーションモデルの振る舞いを学ぶ;意図アライメントはレコメンデーションモデルの潜在空間で働き、ユーザーとアイテムの表現を使ってモデルの振る舞いを理解する;ハイブリッドアライメントは、アライメントトレーニングのために言語と潜在空間の両方を結合する。
提案手法の有効性を実証するため,3つの公開データセット上でアライメント効果と説明生成能力の2つの観点から評価を行った。
提案手法は,LLMが推奨モデルのパターンを効果的に理解し,信頼性の高いレコメンデーション説明を生成することを示唆している。
関連論文リスト
- MetaAlign: Align Large Language Models with Diverse Preferences during Inference Time [50.41806216615488]
大規模言語モデル(LLM)は、広範なテキストコーパスから広範な知識と顕著な能力を取得する。
LLMをより使いやすくするためには、それらを人間の好みに合わせることが不可欠である。
提案手法は,LLMが推論時に指定される様々な明示的あるいは暗黙的な選好と動的に整合するのを支援することを目的としている。
論文 参考訳(メタデータ) (2024-10-18T05:31:13Z) - User Preferences for Large Language Model versus Template-Based Explanations of Movie Recommendations: A Pilot Study [0.6965384453064829]
大規模言語モデル(LLM)は、レコメンダシステムに対してより共鳴的な説明を生成することができる。
25名の被験者を対象にパイロット実験を行った。
LLMに基づく説明がよりリッチで魅力的なユーザエクスペリエンスを提供する可能性を示唆する予備的な研究結果が得られた。
論文 参考訳(メタデータ) (2024-09-10T07:51:53Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。