論文の概要: Aligning Explanations for Recommendation with Rating and Feature via Maximizing Mutual Information
- arxiv url: http://arxiv.org/abs/2407.13274v2
- Date: Tue, 20 Aug 2024 23:28:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 19:46:08.224499
- Title: Aligning Explanations for Recommendation with Rating and Feature via Maximizing Mutual Information
- Title(参考訳): 相互情報の最大化によるレコメンデーションの調整と特徴
- Authors: Yurou Zhao, Yiding Sun, Ruidong Han, Fei Jiang, Lu Guan, Xiang Li, Wei Lin, Weizhi Ma, Jiaxin Mao,
- Abstract要約: 現在の説明生成手法は,既存のユーザレビューを模倣する目的で一般的に訓練されている。
MMIフレームワークと呼ばれるフレキシブルなモデルに依存しない手法を提案し、生成した自然言語の説明と予測された評価/重要項目の特徴との整合性を高める。
私たちのMMIフレームワークは、さまざまなバックボーンモデルを強化し、予測された評価やアイテム機能との整合性の観点から、既存のベースラインを上回ります。
- 参考スコア(独自算出の注目度): 29.331050754362803
- License:
- Abstract: Providing natural language-based explanations to justify recommendations helps to improve users' satisfaction and gain users' trust. However, as current explanation generation methods are commonly trained with an objective to mimic existing user reviews, the generated explanations are often not aligned with the predicted ratings or some important features of the recommended items, and thus, are suboptimal in helping users make informed decision on the recommendation platform. To tackle this problem, we propose a flexible model-agnostic method named MMI (Maximizing Mutual Information) framework to enhance the alignment between the generated natural language explanations and the predicted rating/important item features. Specifically, we propose to use mutual information (MI) as a measure for the alignment and train a neural MI estimator. Then, we treat a well-trained explanation generation model as the backbone model and further fine-tune it through reinforcement learning with guidance from the MI estimator, which rewards a generated explanation that is more aligned with the predicted rating or a pre-defined feature of the recommended item. Experiments on three datasets demonstrate that our MMI framework can boost different backbone models, enabling them to outperform existing baselines in terms of alignment with predicted ratings and item features. Additionally, user studies verify that MI-enhanced explanations indeed facilitate users' decisions and are favorable compared with other baselines due to their better alignment properties.
- Abstract(参考訳): 推薦を正当化するための自然言語に基づく説明を提供することは、ユーザの満足度を高め、ユーザの信頼を得るのに役立つ。
しかし、既存のユーザレビューを模倣する目的で、現在の説明生成手法が一般的に訓練されているため、生成された説明文は予測された評価基準や推奨項目の重要な特徴と一致しないことが多く、ユーザが推薦プラットフォーム上で情報的な判断を下すのを助けるのに最適である。
この問題に対処するために,MMI(Maximizing Mutual Information)フレームワークというフレキシブルなモデルに依存しない手法を提案する。
具体的には、相互情報(MI)をアライメントの指標として使用し、ニューラルMI推定器を訓練することを提案する。
そして、よく訓練された説明生成モデルをバックボーンモデルとして扱い、MI推定器からのガイダンスで強化学習によりさらに微調整し、予測された評価や推奨項目の事前定義された特徴とより整合した説明に報いる。
3つのデータセットの実験では、私たちのMMIフレームワークがさまざまなバックボーンモデルを強化し、予測された評価やアイテム機能との整合性の観点から、既存のベースラインを上回ります。
さらに,MIの強化した説明がユーザの判断を確実に促進し,アライメント特性の良さから,他のベースラインと比較して有利であることを示す。
関連論文リスト
- XRec: Large Language Models for Explainable Recommendation [5.615321475217167]
我々は、XRecと呼ばれるモデルに依存しないフレームワークを導入し、大規模言語モデルがレコメンデーションシステムにおけるユーザの振る舞いを説明することを可能にする。
我々の実験は、説明可能なレコメンデータシステムにおいて、ベースラインアプローチよりも優れた、包括的で意味のある説明を生成するXRecの能力を実証した。
論文 参考訳(メタデータ) (2024-06-04T14:55:14Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Uncertainty-Aware Explainable Recommendation with Large Language Models [15.229417987212631]
GPT-2のプロンプトとしてユーザおよびアイテム入力のIDベクトルを利用するモデルを開発する。
マルチタスク学習フレームワークには,推薦タスクと説明タスクの両方を最適化するために,共同トレーニング機構が採用されている。
提案手法はYelp, TripAdvisor, Amazon のデータセット上でそれぞれ 1.59 DIV, 0.57 USR, 0.41 FCR を達成する。
論文 参考訳(メタデータ) (2024-01-31T14:06:26Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Graph-based Extractive Explainer for Recommendations [38.278148661173525]
ユーザ,項目,属性,文をシームレスに統合し,抽出に基づく説明を行うグラフ注意型ニューラルネットワークモデルを開発した。
個々の文の関連性, 属性カバレッジ, 内容冗長性のバランスをとるために, 整数線形プログラミング問題を解くことにより, 文の最終的な選択を行う。
論文 参考訳(メタデータ) (2022-02-20T04:56:10Z) - Top-N Recommendation with Counterfactual User Preference Simulation [26.597102553608348]
ユーザーランキングに基づく好みの学習を目的としたTop-Nレコメンデーションは、長い間、広範囲のアプリケーションにおいて基本的な問題だった。
本稿では,データ不足問題に対処するため,因果推論フレームワーク内での推薦タスクの再構築を提案する。
論文 参考訳(メタデータ) (2021-09-02T14:28:46Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - User Memory Reasoning for Conversational Recommendation [68.34475157544246]
本研究では,ユーザの過去の(オフライン)好みと現在の(オンライン)要求を動的に管理する対話レコメンデーションモデルについて検討する。
MGConvRexはユーザメモリ上の人間レベルの推論をキャプチャし、推奨のためにゼロショット(コールドスタート)推論のためにユーザのトレーニング/テストセットを分離する。
論文 参考訳(メタデータ) (2020-05-30T05:29:23Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。