論文の概要: Are Representation Disentanglement and Interpretability Linked in Recommendation Models? A Critical Review and Reproducibility Study
- arxiv url: http://arxiv.org/abs/2501.18805v1
- Date: Thu, 30 Jan 2025 23:48:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 13:57:44.756667
- Title: Are Representation Disentanglement and Interpretability Linked in Recommendation Models? A Critical Review and Reproducibility Study
- Title(参考訳): Representation Disentanglement and Interpretability Linked in Recommendation Models : A critical Review and Reproducibility Study
- Authors: Ervin Dervishaj, Tuukka Ruotsalo, Maria Maistro, Christina Lioma,
- Abstract要約: 不整合表現の教師なし学習は、Recommender Systems(RSs)の表現非解釈性の向上と密接に結びついている。
本研究では、4つのRSデータセット上での5つのよく知られたレコメンデーションモデルのレコメンデーション性能、表現不整合、表現解釈可能性を再現する。
- 参考スコア(独自算出の注目度): 12.013380880264439
- License:
- Abstract: Unsupervised learning of disentangled representations has been closely tied to enhancing the representation intepretability of Recommender Systems (RSs). This has been achieved by making the representation of individual features more distinctly separated, so that it is easier to attribute the contribution of features to the model's predictions. However, such advantages in interpretability and feature attribution have mainly been explored qualitatively. Moreover, the effect of disentanglement on the model's recommendation performance has been largely overlooked. In this work, we reproduce the recommendation performance, representation disentanglement and representation interpretability of five well-known recommendation models on four RS datasets. We quantify disentanglement and investigate the link of disentanglement with recommendation effectiveness and representation interpretability. While several existing work in RSs have proposed disentangled representations as a gateway to improved effectiveness and interpretability, our findings show that disentanglement is not necessarily related to effectiveness but is closely related to representation interpretability. Our code and results are publicly available at https://github.com/edervishaj/disentanglement-interpretability-recsys.
- Abstract(参考訳): 不整合表現の教師なし学習は、Recommender Systems(RS)の表現非解釈性の向上と密接に結びついている。
これは、個々の特徴の表現をより明確に分離させることで達成され、モデルの予測に特徴の寄与を考慮しやすくなった。
しかし、このような解釈可能性や特徴属性の利点は主に質的に検討されている。
さらに、モデルの推奨性能に対する歪曲の影響は概ね見過ごされている。
本研究では、4つのRSデータセット上での5つのよく知られたレコメンデーションモデルのレコメンデーション性能、表現不整合、表現解釈可能性を再現する。
本研究では,不絡合の定量化と,不絡合の妥当性と表現の解釈可能性との関連性について検討する。
RSにおけるいくつかの既存の研究は、有効性と解釈可能性を改善するためのゲートウェイとして、不整合表現を提案したが、我々の研究結果は、不整合は必ずしも有効性に関連しているのではなく、表現の解釈可能性と密接に関連していることを示している。
私たちのコードと結果はhttps://github.com/edervishaj/disentanglement-interpretability-recsysで公開されています。
関連論文リスト
- DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Harnessing Discrete Representations For Continual Reinforcement Learning [8.61539229796467]
強化学習の文脈における分類的価値のベクトルとして観測を表現することの利点について検討する。
従来の連続表現と比較すると、離散表現よりも学習した世界モデルは、キャパシティの少ない世界のより正確なモデルであることが分かる。
論文 参考訳(メタデータ) (2023-12-02T18:55:26Z) - Siamese Representation Learning for Unsupervised Relation Extraction [5.776369192706107]
非教師付き関係抽出(URE)は、オープンドメインのプレーンテキストから名前付きエンティティペア間の基礎となる関係を見つけることを目的としている。
比較学習を利用した既存のUREモデルでは、正のサンプルを惹きつけ、より良い分離を促進するために負のサンプルを反発させる効果がある。
非教師関係抽出のためのシームズ表現学習 - 正のペアを単純に活用して表現学習を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T02:57:43Z) - Sequential Recommendation with Controllable Diversification: Representation Degeneration and Diversity [59.24517649169952]
我々は,表現退化問題は,既存のSR手法における推奨の多様性の欠如の根本原因であると主張している。
Singular sPectrum sMoothing regularization for Recommendation (SPMRec)を提案する。
論文 参考訳(メタデータ) (2023-06-21T02:42:37Z) - Disentangled Representation with Causal Constraints for Counterfactual
Fairness [25.114619307838602]
この研究は、構造化された表現を使用することで、下流の予測モデルが反現実的公正を達成することを理論的に証明している。
本稿では,ドメイン知識に関する構造化表現を得るために,CF-VAE(Counterfactal Fairness Variational AutoEncoder)を提案する。
実験結果から,提案手法はベンチマークフェアネス法よりも高精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-19T04:47:58Z) - Representation Projection Invariance Mitigates Representation Collapse [27.485606184566386]
事前訓練された言語モデルによって学習された微調整された文脈表現は、表現の崩壊につながる。
本稿では,表現情報量を維持するための新しい正規化手法であるRepresentation Projection Invariance (REPINA)を提案する。
実験の結果,REPINAは表現崩壊の緩和に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2022-05-23T20:00:22Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - Desiderata for Representation Learning: A Causal Perspective [104.3711759578494]
我々は表現学習の因果的視点を採り、非純粋性と効率性(教師なし表現学習)と非教師なし表現学習(教師なし表現学習)を定式化する。
これは、関心のデシダータを満たす程度を計算可能なメトリクスで評価し、単一の観測データセットから不純物や不整合表現を学習する。
論文 参考訳(メタデータ) (2021-09-08T17:33:54Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。