論文の概要: From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems
- arxiv url: http://arxiv.org/abs/2110.14844v1
- Date: Thu, 28 Oct 2021 01:54:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:06:20.501266
- Title: From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems
- Title(参考訳): 内在から非現実へ:文脈化されたレコメンダシステムの説明可能性について
- Authors: Yao Zhou, Haonan Wang, Jingrui He, Haixun Wang
- Abstract要約: 本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
- 参考スコア(独自算出の注目度): 43.93801836660617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the prevalence of deep learning based embedding approaches, recommender
systems have become a proven and indispensable tool in various information
filtering applications. However, many of them remain difficult to diagnose what
aspects of the deep models' input drive the final ranking decision, thus, they
cannot often be understood by human stakeholders. In this paper, we investigate
the dilemma between recommendation and explainability, and show that by
utilizing the contextual features (e.g., item reviews from users), we can
design a series of explainable recommender systems without sacrificing their
performance. In particular, we propose three types of explainable
recommendation strategies with gradual change of model transparency: whitebox,
graybox, and blackbox. Each strategy explains its ranking decisions via
different mechanisms: attention weights, adversarial perturbations, and
counterfactual perturbations. We apply these explainable models on five
real-world data sets under the contextualized setting where users and items
have explicit interactions. The empirical results show that our model achieves
highly competitive ranking performance, and generates accurate and effective
explanations in terms of numerous quantitative metrics and qualitative
visualizations.
- Abstract(参考訳): ディープラーニングベースの埋め込みアプローチの普及に伴い、レコメンダシステムは様々な情報フィルタリングアプリケーションにおいて、証明され、不可欠のツールとなっている。
しかし、それらの多くは、ディープモデルの入力のどの側面が最終ランク決定を導くかの診断が難しいため、人間の利害関係者によって理解できないことが多い。
本稿では,レコメンデーションと説明可能性のジレンマについて検討し,コンテキスト的特徴(例えばユーザからの項目レビュー)を活用することで,その性能を犠牲にすることなく,一連のレコメンデーションシステムを設計可能であることを示す。
特に,ホワイトボックス,グレーボックス,ブラックボックスという,モデルの透明性を段階的に変更した3種類の推奨戦略を提案する。
それぞれの戦略は、注意重み、敵の摂動、反事実の摂動という異なるメカニズムによってランキング決定を説明する。
ユーザとアイテムが明示的なインタラクションを持つコンテキスト化された設定の下で,これら説明可能なモデルを5つの実世界のデータセットに適用する。
実験結果から,本モデルは高い競争力を持つランキング性能を達成し,定量的指標と質的可視化の観点で,正確かつ効果的な説明が得られた。
関連論文リスト
- Robust Explainable Recommendation [10.186029242664931]
本稿では,外部攻撃に耐えられる機能対応型レコメンデータの汎用フレームワークを提案する。
私たちのフレームワークは、モデルの内部構造や本質的なユーティリティに関係なく、実装が簡単で、異なるメソッドをサポートします。
論文 参考訳(メタデータ) (2024-05-03T05:03:07Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。