論文の概要: Hierarchical Aspect-guided Explanation Generation for Explainable
Recommendation
- arxiv url: http://arxiv.org/abs/2110.10358v1
- Date: Wed, 20 Oct 2021 03:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 00:53:32.252155
- Title: Hierarchical Aspect-guided Explanation Generation for Explainable
Recommendation
- Title(参考訳): 説明可能な勧告のための階層的アスペクト誘導説明生成
- Authors: Yidan Hu, Yong Liu, Chunyan Miao, Gongqi Lin, Yuan Miao
- Abstract要約: 階層的アスペクト誘導説明生成(HAG)という新しい説明生成フレームワークを提案する。
アスペクト誘導グラフプーリング演算子は、アスペクト関連情報をレビューベースの構文グラフから抽出するために提案される。
そして、アテンション機構に基づいてアスペクトおよびアスペクト関連説明を生成する階層的説明デコーダを開発する。
- 参考スコア(独自算出の注目度): 37.36148651206039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable recommendation systems provide explanations for recommendation
results to improve their transparency and persuasiveness. The existing
explainable recommendation methods generate textual explanations without
explicitly considering the user's preferences on different aspects of the item.
In this paper, we propose a novel explanation generation framework, named
Hierarchical Aspect-guided explanation Generation (HAG), for explainable
recommendation. Specifically, HAG employs a review-based syntax graph to
provide a unified view of the user/item details. An aspect-guided graph pooling
operator is proposed to extract the aspect-relevant information from the
review-based syntax graphs to model the user's preferences on an item at the
aspect level. Then, a hierarchical explanation decoder is developed to generate
aspects and aspect-relevant explanations based on the attention mechanism. The
experimental results on three real datasets indicate that HAG outperforms
state-of-the-art explanation generation methods in both single-aspect and
multi-aspect explanation generation tasks, and also achieves comparable or even
better preference prediction accuracy than strong baseline methods.
- Abstract(参考訳): 説明可能なレコメンデーションシステムは、透明性と説得力を改善するためのレコメンデーション結果の説明を提供する。
既存の説明可能な推奨方法は、アイテムの異なる側面に対するユーザの好みを明示的に考慮することなく、テキストによる説明を生成する。
本稿では,階層的アスペクト誘導型説明生成(HAG)と呼ばれる新しい説明生成フレームワークを提案する。
具体的には、HAGはレビューベースの構文グラフを使用して、ユーザ/イテムの詳細を統一したビューを提供する。
アスペクトベース構文グラフからアスペクト関連情報を抽出し、アスペクトレベルの項目に対するユーザの好みをモデル化するためにアスペクト誘導グラフプーリング演算子を提案する。
そして、アテンション機構に基づいてアスペクトおよびアスペクト関連説明を生成する階層的説明デコーダを開発する。
3つの実データを用いた実験結果から,hagは,単一検査と複数検査の両方において最先端の説明生成手法よりも優れており,かつ,強力なベースライン法と同等あるいはそれ以上の選好予測精度が得られた。
関連論文リスト
- Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - UCEpic: Unifying Aspect Planning and Lexical Constraints for Generating
Explanations in Recommendation [26.307290414735643]
本稿では,高品質なパーソナライズされたパーソナライズされた説明文を生成するモデルであるUCEpicを提案する。
UCEpicはアスペクト計画と語彙制約をひとつのフレームワークに統合し、異なる設定で説明を生成する。
従来のレコメンデーション・ジェネレータと比べ、UCEpicはキーフレーズから特定の情報を取り入れている。
論文 参考訳(メタデータ) (2022-09-28T07:33:50Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Graph-based Extractive Explainer for Recommendations [38.278148661173525]
ユーザ,項目,属性,文をシームレスに統合し,抽出に基づく説明を行うグラフ注意型ニューラルネットワークモデルを開発した。
個々の文の関連性, 属性カバレッジ, 内容冗長性のバランスをとるために, 整数線形プログラミング問題を解くことにより, 文の最終的な選択を行う。
論文 参考訳(メタデータ) (2022-02-20T04:56:10Z) - Generate Natural Language Explanations for Recommendation [25.670144526037134]
パーソナライズドレコメンデーションのために,フリーテキストの自然言語説明を作成することを提案する。
特に,パーソナライズされた説明生成のための階層型シーケンス・ツー・シーケンスモデル(hss)を提案する。
論文 参考訳(メタデータ) (2021-01-09T17:00:41Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。