論文の概要: Hierarchical Aspect-guided Explanation Generation for Explainable
Recommendation
- arxiv url: http://arxiv.org/abs/2110.10358v1
- Date: Wed, 20 Oct 2021 03:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 00:53:32.252155
- Title: Hierarchical Aspect-guided Explanation Generation for Explainable
Recommendation
- Title(参考訳): 説明可能な勧告のための階層的アスペクト誘導説明生成
- Authors: Yidan Hu, Yong Liu, Chunyan Miao, Gongqi Lin, Yuan Miao
- Abstract要約: 階層的アスペクト誘導説明生成(HAG)という新しい説明生成フレームワークを提案する。
アスペクト誘導グラフプーリング演算子は、アスペクト関連情報をレビューベースの構文グラフから抽出するために提案される。
そして、アテンション機構に基づいてアスペクトおよびアスペクト関連説明を生成する階層的説明デコーダを開発する。
- 参考スコア(独自算出の注目度): 37.36148651206039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable recommendation systems provide explanations for recommendation
results to improve their transparency and persuasiveness. The existing
explainable recommendation methods generate textual explanations without
explicitly considering the user's preferences on different aspects of the item.
In this paper, we propose a novel explanation generation framework, named
Hierarchical Aspect-guided explanation Generation (HAG), for explainable
recommendation. Specifically, HAG employs a review-based syntax graph to
provide a unified view of the user/item details. An aspect-guided graph pooling
operator is proposed to extract the aspect-relevant information from the
review-based syntax graphs to model the user's preferences on an item at the
aspect level. Then, a hierarchical explanation decoder is developed to generate
aspects and aspect-relevant explanations based on the attention mechanism. The
experimental results on three real datasets indicate that HAG outperforms
state-of-the-art explanation generation methods in both single-aspect and
multi-aspect explanation generation tasks, and also achieves comparable or even
better preference prediction accuracy than strong baseline methods.
- Abstract(参考訳): 説明可能なレコメンデーションシステムは、透明性と説得力を改善するためのレコメンデーション結果の説明を提供する。
既存の説明可能な推奨方法は、アイテムの異なる側面に対するユーザの好みを明示的に考慮することなく、テキストによる説明を生成する。
本稿では,階層的アスペクト誘導型説明生成(HAG)と呼ばれる新しい説明生成フレームワークを提案する。
具体的には、HAGはレビューベースの構文グラフを使用して、ユーザ/イテムの詳細を統一したビューを提供する。
アスペクトベース構文グラフからアスペクト関連情報を抽出し、アスペクトレベルの項目に対するユーザの好みをモデル化するためにアスペクト誘導グラフプーリング演算子を提案する。
そして、アテンション機構に基づいてアスペクトおよびアスペクト関連説明を生成する階層的説明デコーダを開発する。
3つの実データを用いた実験結果から,hagは,単一検査と複数検査の両方において最先端の説明生成手法よりも優れており,かつ,強力なベースライン法と同等あるいはそれ以上の選好予測精度が得られた。
関連論文リスト
- Path-based summary explanations for graph recommenders -- extended version [2.2789818122188925]
そこで本稿では,ユーザやユーザグループに対して,項目レコメンデーションのセットを受信した理由を説明する要約説明を提案する。
また,効率的なグラフアルゴリズムを用いて説明を要約する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T13:10:03Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - UCEpic: Unifying Aspect Planning and Lexical Constraints for Generating
Explanations in Recommendation [26.307290414735643]
本稿では,高品質なパーソナライズされたパーソナライズされた説明文を生成するモデルであるUCEpicを提案する。
UCEpicはアスペクト計画と語彙制約をひとつのフレームワークに統合し、異なる設定で説明を生成する。
従来のレコメンデーション・ジェネレータと比べ、UCEpicはキーフレーズから特定の情報を取り入れている。
論文 参考訳(メタデータ) (2022-09-28T07:33:50Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Generate Natural Language Explanations for Recommendation [25.670144526037134]
パーソナライズドレコメンデーションのために,フリーテキストの自然言語説明を作成することを提案する。
特に,パーソナライズされた説明生成のための階層型シーケンス・ツー・シーケンスモデル(hss)を提案する。
論文 参考訳(メタデータ) (2021-01-09T17:00:41Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。