論文の概要: Explainable Recommendation via Interpretable Feature Mapping and
Evaluation of Explainability
- arxiv url: http://arxiv.org/abs/2007.06133v1
- Date: Sun, 12 Jul 2020 23:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:30:15.566498
- Title: Explainable Recommendation via Interpretable Feature Mapping and
Evaluation of Explainability
- Title(参考訳): 解釈可能な特徴マッピングによる説明可能な勧告と説明可能性の評価
- Authors: Deng Pan, Xiangrui Li, Xin Li and Dongxiao Zhu
- Abstract要約: 実験結果は、推奨と説明の両方において強力なパフォーマンスを示し、メタデータの必要性を排除した。
本稿では,解釈不能な一般特徴を解釈不能な側面特徴にマッピングする新しい特徴マッピング手法を提案する。
- 参考スコア(独自算出の注目度): 22.58823484394866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent factor collaborative filtering (CF) has been a widely used technique
for recommender system by learning the semantic representations of users and
items. Recently, explainable recommendation has attracted much attention from
research community. However, trade-off exists between explainability and
performance of the recommendation where metadata is often needed to alleviate
the dilemma. We present a novel feature mapping approach that maps the
uninterpretable general features onto the interpretable aspect features,
achieving both satisfactory accuracy and explainability in the recommendations
by simultaneous minimization of rating prediction loss and interpretation loss.
To evaluate the explainability, we propose two new evaluation metrics
specifically designed for aspect-level explanation using surrogate ground
truth. Experimental results demonstrate a strong performance in both
recommendation and explaining explanation, eliminating the need for metadata.
Code is available from https://github.com/pd90506/AMCF.
- Abstract(参考訳): 潜在因子協調フィルタリング (CF) は, ユーザや項目の意味表現を学習し, 推薦システムに広く用いられている手法である。
近年,研究コミュニティから説明可能なレコメンデーションが注目されている。
しかし、説明可能性とレコメンデーションのパフォーマンスの間にはトレードオフが存在し、ジレンマを緩和するためにメタデータがしばしば必要となる。
本稿では,解釈不能な一般特徴を解釈可能なアスペクト特徴にマッピングし,評価予測損失と解釈損失の同時最小化による推薦の精度と説明可能性の両立を図る,新しい特徴マッピング手法を提案する。
説明可能性を評価するために,提案する2つの新しい評価指標について提案する。
実験の結果, 提案と説明の両方において, メタデータの必要性をなくし, 強い性能を示した。
コードはhttps://github.com/pd90506/AMCFから入手できる。
関連論文リスト
- Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Explainer Divergence Scores (EDS): Some Post-Hoc Explanations May be
Effective for Detecting Unknown Spurious Correlations [4.223964614888875]
ディープニューラルネット(DNN)における突発的相関の検出にはポストホック説明器が有効でない可能性がある
この設定には、既存の評価フレームワークに深刻な弱点があることが示されています。
本稿では,説明者評価のための情報理論アプローチに基づく新しい評価手法,EDS(Explainer Divergence Scores)を提案する。
論文 参考訳(メタデータ) (2022-11-14T15:52:21Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Coalitional Bayesian Autoencoders -- Towards explainable unsupervised
deep learning [78.60415450507706]
その結果,BAEの予測は高い相関関係にあり,誤解を招くことが示唆された。
これを軽減するために、エージェントベースのシステム理論にインスパイアされた"Coalitional BAE"が提案されている。
公開条件監視データセットに関する実験は、Coalitional BAEを用いた説明の質の向上を実証している。
論文 参考訳(メタデータ) (2021-10-19T15:07:09Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。