論文の概要: Explainable Recommendation Systems by Generalized Additive Models with
Manifest and Latent Interactions
- arxiv url: http://arxiv.org/abs/2012.08196v1
- Date: Tue, 15 Dec 2020 10:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 07:30:36.631924
- Title: Explainable Recommendation Systems by Generalized Additive Models with
Manifest and Latent Interactions
- Title(参考訳): マニファストおよび潜時相互作用を持つ一般化付加モデルによる説明可能な推薦システム
- Authors: Yifeng Guo, Yu Su, Zebin Yang and Aijun Zhang
- Abstract要約: 本稿では,表現的および潜在的相互作用を持つ一般化加法モデルに基づく説明可能なレコメンデーションシステムを提案する。
効率的なモデルトレーニングと結果の視覚化のための新しいPythonパッケージGAMMLIが開発されました。
- 参考スコア(独自算出の注目度): 3.022014732234611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the field of recommendation systems has attracted increasing
attention to developing predictive models that provide explanations of why an
item is recommended to a user. The explanations can be either obtained by
post-hoc diagnostics after fitting a relatively complex model or embedded into
an intrinsically interpretable model. In this paper, we propose the explainable
recommendation systems based on a generalized additive model with manifest and
latent interactions (GAMMLI). This model architecture is intrinsically
interpretable, as it additively consists of the user and item main effects, the
manifest user-item interactions based on observed features, and the latent
interaction effects from residuals. Unlike conventional collaborative filtering
methods, the group effect of users and items are considered in GAMMLI. It is
beneficial for enhancing the model interpretability, and can also facilitate
the cold-start recommendation problem. A new Python package GAMMLI is developed
for efficient model training and visualized interpretation of the results. By
numerical experiments based on simulation data and real-world cases, the
proposed method is shown to have advantages in both predictive performance and
explainable recommendation.
- Abstract(参考訳): 近年、レコメンデーションシステムの分野は、アイテムがユーザーに推奨される理由の説明を提供する予測モデルの開発に注目が集まっている。
これらの説明は、比較的複雑なモデルに適合させた後、あるいは本質的に解釈可能なモデルに埋め込まれた後診断によって得られる。
本稿では,GAMMLI(Explain and Latent Interaction)を用いた一般化付加モデルに基づく説明可能なレコメンデーションシステムを提案する。
このモデルアーキテクチャは本質的に解釈可能であり、ユーザーとアイテムの主な効果、観察された特徴に基づく明示的なユーザとテーマの相互作用、残差からの潜在的な相互作用効果からなる。
従来の協調フィルタリング法とは異なり、gammliではユーザとアイテムの集団効果が考慮される。
モデル解釈性を向上させるのに有用であり、コールドスタート推奨問題も促進できる。
新しいPythonパッケージGAMMLIは、効率的なモデルトレーニングと結果の可視化解釈のために開発された。
シミュレーションデータと実例に基づく数値実験により,提案手法は予測性能と説明可能な推薦の両方において有益であることが示された。
関連論文リスト
- Interpret the Internal States of Recommendation Model with Sparse Autoencoder [26.021277330699963]
RecSAEは、レコメンデーションモデルの内部状態を解釈するための、自動で一般化可能な探索手法である。
我々は、推薦モデルの内部アクティベーションを再構築するために、疎度制約付きオートエンコーダを訓練する。
我々は、潜在活性化と入力項目列の関係に基づき、概念辞書の構築を自動化した。
論文 参考訳(メタデータ) (2024-11-09T08:22:31Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - Multidimensional Item Response Theory in the Style of Collaborative
Filtering [0.8057006406834467]
本稿では,多次元項目応答理論(MIRT)に対する機械学習手法を提案する。
協調フィルタリングに触発されて、多くのMIRTモデルを含むモデルの一般的なクラスを定義します。
本稿では, 個人モデルとクロスバリデーションを推定し, 最適動作モデルを選択するために, ペナル化結合最大度(JML)の使用について論じる。
論文 参考訳(メタデータ) (2023-01-03T00:56:27Z) - Ordinal Graph Gamma Belief Network for Social Recommender Systems [54.9487910312535]
我々は,階層型ベイズモデルであるオーディナルグラフファクター解析(OGFA)を開発し,ユーザ・イテムとユーザ・ユーザインタラクションを共同でモデル化する。
OGFAは、優れたレコメンデーションパフォーマンスを達成するだけでなく、代表ユーザの好みに応じた解釈可能な潜在因子も抽出する。
我々はOGFAを,マルチ確率層深層確率モデルであるオーディナルグラフガンマ信念ネットワークに拡張する。
論文 参考訳(メタデータ) (2022-09-12T09:19:22Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Feature Interaction Interpretability: A Case for Explaining
Ad-Recommendation Systems via Neural Interaction Detection [14.37985060340549]
ブラックボックスレコメンデータシステムの予測を解釈・拡張する手法を提案する。
また,レコメンデータシステムの構造を仮定しないので,一般的な設定で利用することができる。
論文 参考訳(メタデータ) (2020-06-19T05:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。