論文の概要: GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2410.11841v1
- Date: Tue, 15 Oct 2024 17:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:18.860855
- Title: GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation
- Title(参考訳): GaVaMoE: 説明可能な勧告のための専門家のガウス-変量混合
- Authors: Fei Tang, Yongliang Shen, Hang Zhang, Zeqi Tan, Wenqi Zhang, Guiyang Hou, Kaitao Song, Weiming Lu, Yueting Zhuang,
- Abstract要約: GaVaMoEは、説明可能なレコメンデーションのための新しいフレームワークである。
特定のユーザータイプや好みのカスタマイズされた説明を生成する。
疎いユーザ-イテムインタラクションのシナリオでは、堅牢なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 55.769720670731516
- License:
- Abstract: Large language model-based explainable recommendation (LLM-based ER) systems show promise in generating human-like explanations for recommendations. However, they face challenges in modeling user-item collaborative preferences, personalizing explanations, and handling sparse user-item interactions. To address these issues, we propose GaVaMoE, a novel Gaussian-Variational Gated Mixture of Experts framework for explainable recommendation. GaVaMoE introduces two key components: (1) a rating reconstruction module that employs Variational Autoencoder (VAE) with a Gaussian Mixture Model (GMM) to capture complex user-item collaborative preferences, serving as a pre-trained multi-gating mechanism; and (2) a set of fine-grained expert models coupled with the multi-gating mechanism for generating highly personalized explanations. The VAE component models latent factors in user-item interactions, while the GMM clusters users with similar behaviors. Each cluster corresponds to a gate in the multi-gating mechanism, routing user-item pairs to appropriate expert models. This architecture enables GaVaMoE to generate tailored explanations for specific user types and preferences, mitigating data sparsity by leveraging user similarities. Extensive experiments on three real-world datasets demonstrate that GaVaMoE significantly outperforms existing methods in explanation quality, personalization, and consistency. Notably, GaVaMoE exhibits robust performance in scenarios with sparse user-item interactions, maintaining high-quality explanations even for users with limited historical data.
- Abstract(参考訳): 大規模言語モデルに基づく説明可能なレコメンデーション(LLMベースのER)システムは、レコメンデーションのための人間的な説明を生成することを約束している。
しかし、ユーザとイテムの協調的嗜好のモデル化、説明のパーソナライズ、疎密なユーザとイテムのインタラクションの処理といった課題に直面している。
これらの課題に対処するため,ガウス・ヴァリエーション型エキスパート混合フレームワークGaVaMoEを提案する。
GaVaMoEは,(1)変分オートエンコーダ(VAE)とGaussian Mixture Model(GMM)を併用して,複雑なユーザとイテムの協調的嗜好を捕捉し,事前学習されたマルチゲーティング機構として機能する評価再構成モジュールと,(2)高度にパーソナライズされた説明を生成するためのマルチゲーティング機構を組み合わせた,きめ細かい専門家モデルのセットである。
VAEコンポーネントはユーザとイテムのインタラクションにおいて潜在要因をモデル化し、GMMはユーザを同じような振る舞いでクラスタ化する。
各クラスタはマルチゲート機構のゲートに対応し、ユーザ-イテムペアを適切な専門家モデルにルーティングする。
このアーキテクチャにより、GaVaMoEは特定のユーザタイプや好みのカスタマイズされた説明を生成し、ユーザの類似性を活用してデータの分散を緩和できる。
実世界の3つのデータセットに対する大規模な実験により、GaVaMoEは、品質、パーソナライゼーション、一貫性について、既存の手法よりも大幅に優れていることが示された。
特に、GaVaMoEは、ユーザとイテムの相互作用の少ないシナリオで堅牢なパフォーマンスを示し、履歴データに制限のあるユーザでさえ、高品質な説明を維持している。
関連論文リスト
- GUIDE-VAE: Advancing Data Generation with User Information and Pattern Dictionaries [0.0]
本稿では,ユーザ埋め込みを利用してユーザ誘導データを生成する条件付き生成モデルGUIDE-VAEを紹介する。
提案したGUIDE-VAEは,ユーザ間のデータ不均衡を特徴とするマルチユーザスマートメーターデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-11-06T14:11:46Z) - DimeRec: A Unified Framework for Enhanced Sequential Recommendation via Generative Diffusion Models [39.49215596285211]
シークエンシャルレコメンデーション(SR:Sequential Recommendation)は、非定常的な歴史的相互作用に基づいてユーザの好みに合わせてレコメンデーションを調整することによって、レコメンデーションシステムにおいて重要な役割を担っている。
誘導抽出モジュール(GEM)と生成拡散凝集モジュール(DAM)を組み合わせたDimeRecという新しいフレームワークを提案する。
我々の数値実験により、DimeRecは3つの公開データセットで確立されたベースライン法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-08-22T06:42:09Z) - A Review of Modern Recommender Systems Using Generative Models (Gen-RecSys) [57.30228361181045]
この調査は、ジェネレーティブモデル(Gen-RecSys)を用いたレコメンデーションシステムにおける重要な進歩を結びつける。
対話駆動生成モデル、自然言語レコメンデーションのための大規模言語モデル(LLM)とテキストデータの使用、RSにおける画像やビデオの生成と処理のためのマルチモーダルモデルの統合。
我々の研究は、Gen-RecSysの影響と害を評価するために必要なパラダイムを強調し、オープンな課題を特定します。
論文 参考訳(メタデータ) (2024-03-31T06:57:57Z) - A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation [77.42486522565295]
我々は、パーソナライズされたビデオとコメントのレコメンデーションを共同で行うLSVCRと呼ばれる新しいレコメンデーション手法を提案する。
提案手法は,逐次レコメンデーション(SR)モデルと補足型大規模言語モデル(LLM)レコメンデーションという2つの重要なコンポーネントから構成される。
特に、コメント視聴時間の4.13%が大幅に向上した。
論文 参考訳(メタデータ) (2024-03-20T13:14:29Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - On Generative Agents in Recommendation [58.42840923200071]
Agent4Recは、Large Language Modelsに基づいたレコメンデーションのユーザーシミュレータである。
各エージェントは、ページ単位でパーソナライズされた推奨モデルと対話する。
論文 参考訳(メタデータ) (2023-10-16T06:41:16Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Multi-Behavior Enhanced Recommendation with Cross-Interaction
Collaborative Relation Modeling [42.6279077675585]
本稿では,グラフニューラルマルチビヘイビア拡張レコメンデーションフレームワークを提案する。
グラフベースのメッセージパッシングアーキテクチャの下で、異なるタイプのユーザ-テムインタラクション間の依存関係を明示的にモデル化します。
実世界のレコメンデーションデータセットの実験は、GNMRが最先端の手法を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-01-07T03:12:37Z) - Explainable Recommendation Systems by Generalized Additive Models with
Manifest and Latent Interactions [3.022014732234611]
本稿では,表現的および潜在的相互作用を持つ一般化加法モデルに基づく説明可能なレコメンデーションシステムを提案する。
効率的なモデルトレーニングと結果の視覚化のための新しいPythonパッケージGAMMLIが開発されました。
論文 参考訳(メタデータ) (2020-12-15T10:29:12Z) - Joint Variational Autoencoders for Recommendation with Implicit Feedback [7.880059199461512]
暗黙的なフィードバックを伴うトップkレコメンデーションのためのジョイント変分オートエンコーダ(JoVA)を導入する。
実験の結果,JoVA-Hingeは最先端の協調フィルタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2020-08-17T19:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。