論文の概要: ExplainRec: Towards Explainable Multi-Modal Zero-Shot Recommendation with Preference Attribution and Large Language Models
- arxiv url: http://arxiv.org/abs/2511.14770v1
- Date: Fri, 03 Oct 2025 02:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.205316
- Title: ExplainRec: Towards Explainable Multi-Modal Zero-Shot Recommendation with Preference Attribution and Large Language Models
- Title(参考訳): ExplainRec: 推奨属性と大規模言語モデルを備えた説明可能なマルチモーダルゼロショットレコメンデーションを目指して
- Authors: Bo Ma, LuYao Liu, ZeHua Hu, Simon Lau,
- Abstract要約: 大規模な言語モデル(LLM)ベースのレコメンデーション機能を拡張するフレームワークであるExplainRecを紹介します。
このフレームワークは、説明可能なレコメンデーションのための選好属性チューニング、コールドスタートユーザとアイテムのためのゼロショット選好転送、ビジュアルコンテンツとテキストコンテンツを活用したマルチモーダルエンハンスメント、マルチタスク協調最適化を含む。
- 参考スコア(独自算出の注目度): 1.7062863339678127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) have opened new possibilities for recommendation systems, though current approaches such as TALLRec face challenges in explainability and cold-start scenarios. We present ExplainRec, a framework that extends LLM-based recommendation capabilities through preference attribution, multi-modal fusion, and zero-shot transfer learning. The framework incorporates four technical contributions: preference attribution tuning for explainable recommendations, zero-shot preference transfer for cold-start users and items, multi-modal enhancement leveraging visual and textual content, and multi-task collaborative optimization. Experimental evaluation on MovieLens-25M and Amazon datasets shows that ExplainRec outperforms existing methods, achieving AUC improvements of 0.7\% on movie recommendation and 0.9\% on cross-domain tasks, while generating interpretable explanations and handling cold-start scenarios effectively.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、リコメンデーションシステムに新たな可能性をもたらしたが、TALLRecのような現在のアプローチは、説明可能性やコールドスタートシナリオにおいて課題に直面している。
提案するフレームワークであるExplainRecは、優先属性、マルチモーダル融合、ゼロショット転送学習を通じてLLMベースの推薦機能を拡張する。
このフレームワークには、説明可能なレコメンデーションのためのコントリビューションチューニング、コールドスタートユーザとアイテムのためのゼロショット優先転送、ビジュアルコンテンツとテキストコンテンツを活用したマルチモーダル強化、マルチタスク協調最適化の4つの技術貢献が含まれている。
MovieLens-25MとAmazonデータセットの実験的評価によると、ExplainRecは既存の手法よりも優れており、映画レコメンデーションで0.7\%、クロスドメインタスクで0.9\%、解釈可能な説明を生成し、コールドスタートシナリオを効果的に処理しながら、AUCの改善を実現している。
関連論文リスト
- LLM Reasoning for Cold-Start Item Recommendation [11.180516000970528]
大規模言語モデル(LLM)はレコメンデーションシステムを改善する重要な可能性を示している。
我々はNetflixドメイン内で、コールドスタートアイテムレコメンデーション用に設計された新しい推論戦略を提案する。
提案手法は,LLMの高度な推論機能を利用してユーザの好みを効果的に推測する。
論文 参考訳(メタデータ) (2025-11-23T03:22:53Z) - Can LLMs Outshine Conventional Recommenders? A Comparative Evaluation [33.031903907256606]
本稿では、クリックスルーレート予測(CTR)とシーケンシャルレコメンデーション(SeqRec)という2つの主要なレコメンデーションタスクを評価するRecBenchを紹介する。
実験は最大17種類の大モデルを対象としており、ファッション、ニュース、ビデオ、書籍、音楽ドメインの5つの多様なデータセットで実施されている。
以上の結果から,LCMベースのレコメンデータは従来のレコメンデータよりも優れ,CTRシナリオでは最大5%のAUC改善,SeqRecシナリオでは最大170%のNDCG@10改善を実現した。
論文 参考訳(メタデータ) (2025-03-07T15:05:23Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。