論文の概要: ELIXIR: Efficient and LIghtweight model for eXplaIning Recommendations
- arxiv url: http://arxiv.org/abs/2508.20312v2
- Date: Fri, 05 Sep 2025 00:27:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.275926
- Title: ELIXIR: Efficient and LIghtweight model for eXplaIning Recommendations
- Title(参考訳): ELIXIR:eXplainingレコメンデーションのための効率的なLIghtweightモデル
- Authors: Ben Kabongo, Vincent Guigue, Pirmin Lemberger,
- Abstract要約: 評価予測とパーソナライズされたレビュー生成を組み合わせたマルチタスクモデルELIXIRを提案する。
ELIXIRは、ユーザとアイテムのグローバルおよびアスペクト固有の表現を共同で学習し、全体的なレーティング、アスペクトレベルのレーティング、レビュー生成を最適化する。
T5-small (60M)モデルに基づいて、パーソナライズされたコンテキストにおけるテキスト生成を導く上で、アスペクトベースのアーキテクチャの有効性を実証する。
- 参考スコア(独自算出の注目度): 1.9711529297777448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative filtering drives many successful recommender systems but struggles with fine-grained user-item interactions and explainability. As users increasingly seek transparent recommendations, generating textual explanations through language models has become a critical research area. Existing methods employ either RNNs or Transformers. However, RNN-based approaches fail to leverage the capabilities of pre-trained Transformer models, whereas Transformer-based methods often suffer from suboptimal adaptation and neglect aspect modeling, which is crucial for personalized explanations. We propose ELIXIR (Efficient and LIghtweight model for eXplaIning Recommendations), a multi-task model combining rating prediction with personalized review generation. ELIXIR jointly learns global and aspect-specific representations of users and items, optimizing overall rating, aspect-level ratings, and review generation, with personalized attention to emphasize aspect importance. Based on a T5-small (60M) model, we demonstrate the effectiveness of our aspect-based architecture in guiding text generation in a personalized context, where state-of-the-art approaches exploit much larger models but fail to match user preferences as well. Experimental results on TripAdvisor and RateBeer demonstrate that ELIXIR significantly outperforms strong baseline models, especially in review generation.
- Abstract(参考訳): 協調フィルタリングは多くのレコメンデータシステムを駆動するが、きめ細かいユーザとイテムのインタラクションと説明可能性に苦労する。
ユーザーが透明なレコメンデーションを求めるにつれ、言語モデルによるテキスト説明の生成が重要な研究領域となっている。
既存の方法はRNNまたはTransformerを使用する。
しかし、RNNベースのアプローチは、事前訓練されたトランスフォーマーモデルの能力を活用するのに失敗する一方、トランスフォーマーベースの手法は、パーソナライズされた説明に欠かせない最適部分適応とアスペクトモデリングに悩まされることが多い。
評価予測とパーソナライズされたレビュー生成を組み合わせたマルチタスクモデルであるELIXIR(eXplaIning Recommendations)を提案する。
ELIXIRは、ユーザとアイテムのグローバルおよびアスペクト固有の表現を共同で学習し、全体的な評価、アスペクトレベルの評価、レビュー生成を最適化し、アスペクトの重要性を強調するためにパーソナライズされた注意を払っている。
T5-small (60M) モデルに基づいて,テキスト生成をパーソナライズする上でのアスペクトベースのアーキテクチャの有効性を実証する。
TripAdvisor と RateBeer の実験結果から,ELIXIR は強力なベースラインモデル,特にレビュー生成において著しく優れていた。
関連論文リスト
- SymCERE: Symmetric Contrastive Learning for Robust Review-Enhanced Recommendation [2.087411180679868]
提案するSymCEREは,提案する偽陰性に対処するコントラスト学習手法である。
3つのプラットフォームからの15のデータセットの実験では、SymCEREがいくつかの強力なベースラインを上回っていることが示されている。
論文 参考訳(メタデータ) (2025-04-03T00:40:09Z) - FuXi-$α$: Scaling Recommendation Model with Feature Interaction Enhanced Transformer [81.12174905444229]
近年の進歩は、大規模レコメンデーションモデルに逐次レコメンデーションモデルを拡張することが効果的な戦略であることを示している。
これらの問題に対処するために、FuXi-$alpha$と呼ばれる新しいモデルを提案する。
我々のモデルは既存のモデルよりも優れており、モデルのサイズが大きくなるにつれてその性能は継続的に向上する。
論文 参考訳(メタデータ) (2025-02-05T09:46:54Z) - MixRec: Heterogeneous Graph Collaborative Filtering [21.96510707666373]
そこで本稿では,MixRecを用いたグラフ協調フィルタリングモデルを提案する。
本モデルでは,意図的不整合とマルチビヘイビア・モデリングを取り入れてこれを実現している。
また、自己教師付きデータ拡張の利点を適応的に探求する、新しいコントラスト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-12-18T13:12:36Z) - ISR-DPO: Aligning Large Multimodal Models for Videos by Iterative Self-Retrospective DPO [36.69910114305134]
我々は、優先モデルを強化するために、反復自己ふりかえり直接選好最適化(ISR-DPO)を提案する。
ISR-DPOは、情報的ビデオ領域に対する自己判断の焦点を強化する。
広範な経験的評価では、ISR-DPOは芸術の状態を著しく上回る。
論文 参考訳(メタデータ) (2024-06-17T07:33:30Z) - Aligning Large Language Models via Fine-grained Supervision [20.35000061196631]
事前訓練された大規模言語モデル(LLM)は、一貫性のある記事を生成するのに優れていますが、そのアウトプットは非現実的、有毒、あるいはユーザの期待に沿わないかもしれません。
現在のアプローチは、モデルアライメントを改善するために、人間のフィードバックによる強化学習を使うことに重点を置いている。
トークンレベルの微粒化によるLCMアライメント向上手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:21:45Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Self-Supervised Hypergraph Transformer for Recommender Systems [25.07482350586435]
自己監督型ハイパーグラフ変換器(SHT)
自己監督型ハイパーグラフ変換器(SHT)
ユーザ-テム相互作用グラフ上のデータ拡張のために,クロスビュー生成型自己教師型学習コンポーネントを提案する。
論文 参考訳(メタデータ) (2022-07-28T18:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。