論文の概要: Learning to Counterfactually Explain Recommendations
- arxiv url: http://arxiv.org/abs/2211.09752v1
- Date: Thu, 17 Nov 2022 18:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 16:10:50.973574
- Title: Learning to Counterfactually Explain Recommendations
- Title(参考訳): 推奨事項を非現実的に説明する学習
- Authors: Yuanshun Yao, Chong Wang, Hang Li
- Abstract要約: 本稿では,反実的説明を生成するための学習ベースのフレームワークを提案する。
説明文を生成するために,提案手法が提案するサロゲートモデルにより予測される履歴部分集合を抽出する可能性が最も高い。
- 参考スコア(独自算出の注目度): 14.938252589829673
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recommender system practitioners are facing increasing pressure to explain
recommendations. We explore how to explain recommendations using counterfactual
logic, i.e. "Had you not interacted with the following items before, it is
likely we would not recommend this item." Compared to traditional explanation
logic, counterfactual explanations are easier to understand and more
technically verifiable. The major challenge of generating such explanations is
the computational cost because it requires repeatedly retraining the models to
obtain the effect on a recommendation caused by removing user (interaction)
history. We propose a learning-based framework to generate counterfactual
explanations. The key idea is to train a surrogate model to learn the effect of
removing a subset of user history on the recommendation. To this end, we first
artificially simulate the counterfactual outcomes on the recommendation after
deleting subsets of history. Then we train surrogate models to learn the
mapping between a history deletion and the change in the recommendation caused
by the deletion. Finally, to generate an explanation, we find the history
subset predicted by the surrogate model that is most likely to remove the
recommendation. Through offline experiments and online user studies, we show
our method, compared to baselines, can generate explanations that are more
counterfactually valid and more satisfactory considered by users.
- Abstract(参考訳): レコメンデーションシステム実践者は、レコメンデーションを説明する圧力が高まっている。
我々は、反ファクト論理を用いてレコメンデーションを説明する方法、すなわち「もしあなたが以前以下の項目と対話しなかったら、この項目を推奨しない可能性が高い」。
従来の説明論理と比較すると、反事実的説明は理解しやすく、技術的に検証可能である。
このような説明を生成する上で大きな課題は、ユーザー(インタラクション)履歴を削除することによって生じるレコメンデーションに影響を与えるために、繰り返しモデルを再訓練する必要があるため、計算コストである。
本稿では,反実的説明を生成するための学習ベースのフレームワークを提案する。
鍵となるアイデアは、サロゲートモデルをトレーニングして、リコメンデーションに対するユーザ履歴のサブセットを削除する効果を学ぶことです。
この目的のために、まず、履歴のサブセットを削除した後、推奨事項の反事実を人工的にシミュレートする。
次に、サロゲートモデルをトレーニングし、履歴削除と削除によって引き起こされるレコメンデーションの変化の間のマッピングを学習する。
最後に、説明を生成するために、サロゲートモデルによって予測される履歴サブセットを見つけ、最も推奨を除去する可能性が高い。
オフライン実験やオンラインユーザスタディを通じて,本手法をベースラインと比較し,ユーザから見れば,非現実的かつ満足な説明を生成できることを示す。
関連論文リスト
- Explaining the (Not So) Obvious: Simple and Fast Explanation of STAN, a Next Point of Interest Recommendation System [0.5796859155047135]
いくつかの機械学習手法は本質的に説明可能であるため、完全にブラックボックスではない。
これによって開発者は、複雑で高価な説明可能性技術を開発することなく、アウトプットを理解することができる。
我々は、協調フィルタリングとシーケンス予測に基づく次の関心点推薦システムSTANにおいて、この哲学/パラダイムを実証する。
論文 参考訳(メタデータ) (2024-10-04T18:14:58Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Improving Sequential Query Recommendation with Immediate User Feedback [6.925738064847176]
本稿では,対話型データ探索設定における次のクエリレコメンデーションのためのアルゴリズムを提案する。
人気のあるオンライン文献発見サービスからログファイルを用いて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-12T18:19:24Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Learning Post-Hoc Causal Explanations for Recommendation [43.300372759620664]
我々は,ブラックボックスのシーケンシャルレコメンデーション機構に対するポストホックな説明として,ユーザインタラクション履歴から因果ルールを抽出する。
提案手法は摂動モデルを用いて擬似実例を実現し, パーソナライズされた因果関係をレコメンデーションモデルに抽出する。
いくつかの最先端のシーケンシャルレコメンデーションモデルと実世界のデータセットで実験が行われる。
論文 参考訳(メタデータ) (2020-06-30T17:14:12Z) - User Memory Reasoning for Conversational Recommendation [68.34475157544246]
本研究では,ユーザの過去の(オフライン)好みと現在の(オンライン)要求を動的に管理する対話レコメンデーションモデルについて検討する。
MGConvRexはユーザメモリ上の人間レベルの推論をキャプチャし、推奨のためにゼロショット(コールドスタート)推論のためにユーザのトレーニング/テストセットを分離する。
論文 参考訳(メタデータ) (2020-05-30T05:29:23Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。