論文の概要: Learning Post-Hoc Causal Explanations for Recommendation
- arxiv url: http://arxiv.org/abs/2006.16977v2
- Date: Tue, 23 Feb 2021 17:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:11:40.207341
- Title: Learning Post-Hoc Causal Explanations for Recommendation
- Title(参考訳): 推薦のためのホックな因果説明の学習
- Authors: Shuyuan Xu, Yunqi Li, Shuchang Liu, Zuohui Fu, Xu Chen, Yongfeng Zhang
- Abstract要約: 我々は,ブラックボックスのシーケンシャルレコメンデーション機構に対するポストホックな説明として,ユーザインタラクション履歴から因果ルールを抽出する。
提案手法は摂動モデルを用いて擬似実例を実現し, パーソナライズされた因果関係をレコメンデーションモデルに抽出する。
いくつかの最先端のシーケンシャルレコメンデーションモデルと実世界のデータセットで実験が行われる。
- 参考スコア(独自算出の注目度): 43.300372759620664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art recommender systems have the ability to generate
high-quality recommendations, but usually cannot provide intuitive explanations
to humans due to the usage of black-box prediction models. The lack of
transparency has highlighted the critical importance of improving the
explainability of recommender systems. In this paper, we propose to extract
causal rules from the user interaction history as post-hoc explanations for the
black-box sequential recommendation mechanisms, whilst maintain the predictive
accuracy of the recommendation model. Our approach firstly achieves
counterfactual examples with the aid of a perturbation model, and then extracts
personalized causal relationships for the recommendation model through a causal
rule mining algorithm. Experiments are conducted on several state-of-the-art
sequential recommendation models and real-world datasets to verify the
performance of our model on generating causal explanations. Meanwhile, We
evaluate the discovered causal explanations in terms of quality and fidelity,
which show that compared with conventional association rules, causal rules can
provide personalized and more effective explanations for the behavior of
black-box recommendation models.
- Abstract(参考訳): 最先端のレコメンデーションシステムは高品質なレコメンデーションを生成する能力を持っているが、ブラックボックス予測モデルの使用により人間に直感的な説明を与えることはできない。
透明性の欠如は、レコメンダシステムの説明可能性を改善することの重要性を強調している。
本稿では,ブラックボックスの逐次レコメンデーション機構に対するポストホックな説明として,レコメンデーションモデルの予測精度を維持しつつ,ユーザインタラクション履歴から因果ルールを抽出することを提案する。
提案手法はまず摂動モデルを用いて反実例を導出し,その後因果ルールマイニングアルゴリズムを用いて推薦モデルに対するパーソナライズされた因果関係を抽出する。
いくつかの最先端のレコメンデーションモデルと実世界のデータセットを用いて実験を行い、因果的説明を生成する際のモデルの性能を検証する。
一方, 因果ルールは, 従来の連想規則と比較して, ブラックボックスレコメンデーションモデルの行動に対して, パーソナライズされ, より効果的に説明できることを示す。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - CausPref: Causal Preference Learning for Out-of-Distribution
Recommendation [36.22965012642248]
現在のレコメンデータシステムは、現実的なシナリオにおけるユーザやアイテムの配布シフトに対して、依然として脆弱である。
本稿では,推奨特化DAG学習者を因果選好に基づく推薦フレームワークCausPrefに組み込むことを提案する。
当社のアプローチは、アウト・オブ・ディストリビューション・セッティングのタイプにおいて、ベンチマークモデルを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-08T16:42:03Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Debiased Explainable Pairwise Ranking from Implicit Feedback [0.3867363075280543]
BPR(Bayesian Personalized Ranking)に焦点をあてる。
BPRはアウトプットを説明しないブラックボックスモデルであり、ユーザのレコメンデーションに対する信頼を制限する。
本稿では,項目に基づく説明とともにレコメンデーションを生成する新しい説明可能な損失関数と,それに対応する行列分解モデルを提案する。
論文 参考訳(メタデータ) (2021-07-30T17:19:37Z) - Fast Multi-Step Critiquing for VAE-based Recommender Systems [27.207067974031805]
M&Ms-VAEは、提案と説明のための新しい変分オートエンコーダです。
モデルを弱い監督スキームでトレーニングし、完全および部分的に観察された変数をシミュレートします。
次に、訓練されたM&Ms-VAEモデルの一般化能力を利用して、ユーザの好みと批判を個別に埋め込む。
論文 参考訳(メタデータ) (2021-05-03T12:26:09Z) - Explainable Recommendation Systems by Generalized Additive Models with
Manifest and Latent Interactions [3.022014732234611]
本稿では,表現的および潜在的相互作用を持つ一般化加法モデルに基づく説明可能なレコメンデーションシステムを提案する。
効率的なモデルトレーニングと結果の視覚化のための新しいPythonパッケージGAMMLIが開発されました。
論文 参考訳(メタデータ) (2020-12-15T10:29:12Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。