論文の概要: Counterfactual Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2108.10539v1
- Date: Tue, 24 Aug 2021 06:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:08:49.768994
- Title: Counterfactual Explainable Recommendation
- Title(参考訳): 反論可能な推奨事項
- Authors: Juntao Tan, Shuyuan Xu, Yingqiang Ge, Yunqi Li, Xu Chen, Yongfeng
Zhang
- Abstract要約: 本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
- 参考スコア(独自算出の注目度): 22.590877963169103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By providing explanations for users and system designers to facilitate better
understanding and decision making, explainable recommendation has been an
important research problem. In this paper, we propose Counterfactual
Explainable Recommendation (CountER), which takes the insights of
counterfactual reasoning from causal inference for explainable recommendation.
CountER is able to formulate the complexity and the strength of explanations,
and it adopts a counterfactual learning framework to seek simple (low
complexity) and effective (high strength) explanations for the model decision.
Technically, for each item recommended to each user, CountER formulates a joint
optimization problem to generate minimal changes on the item aspects so as to
create a counterfactual item, such that the recommendation decision on the
counterfactual item is reversed. These altered aspects constitute the
explanation of why the original item is recommended. The counterfactual
explanation helps both the users for better understanding and the system
designers for better model debugging. Another contribution of the work is the
evaluation of explainable recommendation, which has been a challenging task.
Fortunately, counterfactual explanations are very suitable for standard
quantitative evaluation. To measure the explanation quality, we design two
types of evaluation metrics, one from user's perspective (i.e. why the user
likes the item), and the other from model's perspective (i.e. why the item is
recommended by the model). We apply our counterfactual learning algorithm on a
black-box recommender system and evaluate the generated explanations on five
real-world datasets. Results show that our model generates more accurate and
effective explanations than state-of-the-art explainable recommendation models.
- Abstract(参考訳): ユーザやシステム設計者がより理解と意思決定を容易にするために説明を提供することで、説明可能な推奨は重要な研究課題となっている。
本稿では,説明可能な推薦のための因果推論から反事実推論の考察を取り入れた,反事実説明可能な推薦(カウンタ)を提案する。
counterは、説明の複雑さと強みを定式化することができ、モデル決定のための単純(低複雑さ)かつ効果的な(高強度)説明を求めるために、反事実学習フレームワークを採用している。
技術的には、各ユーザーに推奨される各項目について、カウンタ最適化問題を定式化し、項目の側面に最小限の変更を発生させ、反事実項目の推奨決定を逆転させる反事実項目を作成する。
これらの変更は、なぜオリジナルの項目が推奨されるのかの説明である。
反事実的な説明は、ユーザとシステムデザイナの両方がよりよいモデルデバッグのために役立ちます。
この作業のもうひとつの貢献は、説明可能な推奨の評価である。
幸いなことに、反実的な説明は標準的な定量的評価に非常に適している。
説明の質を評価するために,ユーザの視点から2種類の評価指標を設計する。
ユーザがそのアイテムを好む理由) と、モデルの観点から見た他のもの(すなわち、)
なぜそのアイテムがモデルによって推奨されるのか)
提案手法をブラックボックスレコメンデータシステムに適用し,実世界の5つのデータセット上で生成した説明を評価する。
その結果,本モデルは最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることがわかった。
関連論文リスト
- Path-based summary explanations for graph recommenders -- extended version [2.2789818122188925]
そこで本稿では,ユーザやユーザグループに対して,項目レコメンデーションのセットを受信した理由を説明する要約説明を提案する。
また,効率的なグラフアルゴリズムを用いて説明を要約する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T13:10:03Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - What if you said that differently?: How Explanation Formats Affect Human Feedback Efficacy and User Perception [53.4840989321394]
我々は,QAモデルが生成した有理性の効果を分析し,その答えを支持する。
ユーザに対して,様々な形式で誤った回答とそれに対応する有理性を提示する。
このフィードバックの有効性を,文脈内学習を通じて評価する。
論文 参考訳(メタデータ) (2023-11-16T04:26:32Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Learning to Counterfactually Explain Recommendations [14.938252589829673]
本稿では,反実的説明を生成するための学習ベースのフレームワークを提案する。
説明文を生成するために,提案手法が提案するサロゲートモデルにより予測される履歴部分集合を抽出する可能性が最も高い。
論文 参考訳(メタデータ) (2022-11-17T18:21:21Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Comparative Explanations of Recommendations [33.89230323979306]
本稿では,レコメンデータシステムからランキング項目の相対比較を抽出・再定義するアーキテクチャを提案する。
我々はBLEUに基づく新しい説明品質指標を設計し、抽出・精錬部品のエンドツーエンドトレーニングを指導する。
論文 参考訳(メタデータ) (2021-11-01T02:55:56Z) - Explanation as a Defense of Recommendation [34.864709791648195]
提案とそれに対応する説明の間の感情整合のアイデアを強制することを提案する。
当社のソリューションは、推奨タスクと説明タスクの両方で豊富なベースラインを上回っています。
論文 参考訳(メタデータ) (2021-01-24T06:34:36Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。