論文の概要: Explanation as a Defense of Recommendation
- arxiv url: http://arxiv.org/abs/2101.09656v1
- Date: Sun, 24 Jan 2021 06:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 08:52:53.087552
- Title: Explanation as a Defense of Recommendation
- Title(参考訳): 勧告の擁護としての説明
- Authors: Aobo Yang, Nan Wang, Hongbo Deng, Hongning Wang
- Abstract要約: 提案とそれに対応する説明の間の感情整合のアイデアを強制することを提案する。
当社のソリューションは、推奨タスクと説明タスクの両方で豊富なベースラインを上回っています。
- 参考スコア(独自算出の注目度): 34.864709791648195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Textual explanations have proved to help improve user satisfaction on
machine-made recommendations. However, current mainstream solutions loosely
connect the learning of explanation with the learning of recommendation: for
example, they are often separately modeled as rating prediction and content
generation tasks. In this work, we propose to strengthen their connection by
enforcing the idea of sentiment alignment between a recommendation and its
corresponding explanation. At training time, the two learning tasks are joined
by a latent sentiment vector, which is encoded by the recommendation module and
used to make word choices for explanation generation. At both training and
inference time, the explanation module is required to generate explanation text
that matches sentiment predicted by the recommendation module. Extensive
experiments demonstrate our solution outperforms a rich set of baselines in
both recommendation and explanation tasks, especially on the improved quality
of its generated explanations. More importantly, our user studies confirm our
generated explanations help users better recognize the differences between
recommended items and understand why an item is recommended.
- Abstract(参考訳): テキストによる説明は、マシンメイドのレコメンデーションに対するユーザの満足度向上に役立つ。
しかし、現在の主流のソリューションは、説明の学習とレコメンデーションの学習を緩やかに結び付けている。
本研究では,レコメンデーションとそれに対応する説明との間に感傷的アライメントの考え方を強制することにより,それらの関係を強化することを提案する。
トレーニング時に、2つの学習タスクは、レコメンデーションモジュールによってエンコードされ、説明生成のための単語選択に使用される潜在感情ベクトルによって結合される。
トレーニング時間と推論時間の両方において、レコメンデーションモジュールによって予測される感情に一致する説明文を生成するために、説明モジュールが必要である。
大規模な実験により,提案手法は提案課題と説明課題の両方において,特に生成した説明の質の向上において,豊富なベースラインを上回ります。
さらに重要なことは、私たちのユーザ研究が生成した説明が、推奨項目の違いをよりよく認識し、なぜ推奨項目が推奨されるのかを理解するのに役立ちます。
関連論文リスト
- Path-based summary explanations for graph recommenders -- extended version [2.2789818122188925]
そこで本稿では,ユーザやユーザグループに対して,項目レコメンデーションのセットを受信した理由を説明する要約説明を提案する。
また,効率的なグラフアルゴリズムを用いて説明を要約する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T13:10:03Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Comparative Explanations of Recommendations [33.89230323979306]
本稿では,レコメンデータシステムからランキング項目の相対比較を抽出・再定義するアーキテクチャを提案する。
我々はBLEUに基づく新しい説明品質指標を設計し、抽出・精錬部品のエンドツーエンドトレーニングを指導する。
論文 参考訳(メタデータ) (2021-11-01T02:55:56Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。