論文の概要: Reinforced Path Reasoning for Counterfactual Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2207.06674v1
- Date: Thu, 14 Jul 2022 05:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 03:05:19.953433
- Title: Reinforced Path Reasoning for Counterfactual Explainable Recommendation
- Title(参考訳): 具体的説明可能な勧告のための強化経路推論
- Authors: Xiangmeng Wang, Qian Li, Dianer Yu, Guandong Xu
- Abstract要約: 本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
- 参考スコア(独自算出の注目度): 10.36395995374108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual explanations interpret the recommendation mechanism via
exploring how minimal alterations on items or users affect the recommendation
decisions. Existing counterfactual explainable approaches face huge search
space and their explanations are either action-based (e.g., user click) or
aspect-based (i.e., item description). We believe item attribute-based
explanations are more intuitive and persuadable for users since they explain by
fine-grained item demographic features (e.g., brand). Moreover, counterfactual
explanation could enhance recommendations by filtering out negative items.
In this work, we propose a novel Counterfactual Explainable Recommendation
(CERec) to generate item attribute-based counterfactual explanations meanwhile
to boost recommendation performance. Our CERec optimizes an explanation policy
upon uniformly searching candidate counterfactuals within a reinforcement
learning environment. We reduce the huge search space with an adaptive path
sampler by using rich context information of a given knowledge graph. We also
deploy the explanation policy to a recommendation model to enhance the
recommendation. Extensive explainability and recommendation evaluations
demonstrate CERec's ability to provide explanations consistent with user
preferences and maintain improved recommendations. We release our code at
https://github.com/Chrystalii/CERec.
- Abstract(参考訳): 反事実的説明は、アイテムやユーザの変更がレコメンデーション決定にどの程度影響するかを検討することによって、レコメンデーションメカニズムを解釈する。
既存のカウンターファクトな説明可能なアプローチは巨大な検索スペースに直面しており、その説明はアクションベース(ユーザークリックなど)かアスペクトベース(項目記述など)である。
項目属性に基づく説明は、細かな項目人口統計機能(ブランドなど)によって説明されるため、ユーザにとってより直感的で説得力があると考えています。
さらに、反事実的な説明は、否定的な項目を除外することで推奨を高めることができる。
本研究では,アイテム属性に基づく反事実説明を生成するための新しい反事実説明可能レコメンデーション(cerec)を提案し,レコメンデーション性能を向上させる。
我々のceecは,強化学習環境において,候補の反事実を一様に検索することで,説明方針を最適化する。
与えられた知識グラフの豊かな文脈情報を用いて,適応パスサンプルを用いて巨大な探索空間を削減する。
また、リコメンデーションモデルに説明ポリシーを配置し、リコメンデーションを強化する。
広範な説明可能性とレコメンデーション評価は、CERecがユーザの好みと整合した説明を提供し、改善されたレコメンデーションを維持する能力を示している。
私たちはコードをhttps://github.com/chrystalii/cerecでリリースします。
関連論文リスト
- Path-based summary explanations for graph recommenders -- extended version [2.2789818122188925]
そこで本稿では,ユーザやユーザグループに対して,項目レコメンデーションのセットを受信した理由を説明する要約説明を提案する。
また,効率的なグラフアルゴリズムを用いて説明を要約する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T13:10:03Z) - Beyond Persuasion: Towards Conversational Recommender System with Credible Explanations [63.05026345443155]
そこで我々は,PC-CRSと呼ばれるシンプルな手法を提案し,CRSの説得における説明の信頼性を高める。
実験により,PC-CRSの説得的・信頼性的説明を促進する効果が示された。
さらなる分析では、現在の手法が素晴らしい説明を生み出している理由と、推薦精度を向上させるための信頼できる説明の可能性を明らかにしている。
論文 参考訳(メタデータ) (2024-09-22T11:35:59Z) - Stability of Explainable Recommendation [10.186029242664931]
既存の特徴指向の説明可能なレコメンデーションの脆弱性について検討する。
我々は、全ての説明可能なモデルが騒音レベルの増加に弱いことを観察する。
本研究は,レコメンデーションシステムにおけるロバストな説明の話題について,実証的な検証を行った。
論文 参考訳(メタデータ) (2024-05-03T04:44:51Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - RecXplainer: Amortized Attribute-based Personalized Explanations for
Recommender Systems [35.57265154621778]
提案するRecXplainerは,推奨項目の属性に対するユーザの好みに基づいた,きめ細かい説明を生成する手法である。
我々はRecXplainerを5つの実世界および大規模レコメンデーションデータセットで評価する。
論文 参考訳(メタデータ) (2022-11-27T21:00:31Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Explanation as a Defense of Recommendation [34.864709791648195]
提案とそれに対応する説明の間の感情整合のアイデアを強制することを提案する。
当社のソリューションは、推奨タスクと説明タスクの両方で豊富なベースラインを上回っています。
論文 参考訳(メタデータ) (2021-01-24T06:34:36Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。