論文の概要: Explainable Recommender Systems via Resolving Learning Representations
- arxiv url: http://arxiv.org/abs/2008.09316v1
- Date: Fri, 21 Aug 2020 05:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:00:38.358286
- Title: Explainable Recommender Systems via Resolving Learning Representations
- Title(参考訳): 学習表現の解決による説明可能なレコメンダシステム
- Authors: Ninghao Liu, Yong Ge, Li Li, Xia Hu, Rui Chen, Soo-Hyun Choi
- Abstract要約: 説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
- 参考スコア(独自算出の注目度): 57.24565012731325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems play a fundamental role in web applications in filtering
massive information and matching user interests. While many efforts have been
devoted to developing more effective models in various scenarios, the
exploration on the explainability of recommender systems is running behind.
Explanations could help improve user experience and discover system defects. In
this paper, after formally introducing the elements that are related to model
explainability, we propose a novel explainable recommendation model through
improving the transparency of the representation learning process.
Specifically, to overcome the representation entangling problem in traditional
models, we revise traditional graph convolution to discriminate information
from different layers. Also, each representation vector is factorized into
several segments, where each segment relates to one semantic aspect in data.
Different from previous work, in our model, factor discovery and representation
learning are simultaneously conducted, and we are able to handle extra
attribute information and knowledge. In this way, the proposed model can learn
interpretable and meaningful representations for users and items. Unlike
traditional methods that need to make a trade-off between explainability and
effectiveness, the performance of our proposed explainable model is not
negatively affected after considering explainability. Finally, comprehensive
experiments are conducted to validate the performance of our model as well as
explanation faithfulness.
- Abstract(参考訳): Recommender システムは、大量の情報をフィルタリングし、ユーザの関心をマッチさせるウェブアプリケーションにおいて、基本的な役割を果たす。
様々なシナリオにおいてより効果的なモデルの開発に多くの努力が注がれているが、レコメンダシステムの説明可能性に関する調査は遅れを取っている。
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,モデル説明可能性に関連する要素を形式的に導入した後,表現学習プロセスの透明性を向上させることにより,新しい説明可能なレコメンデーションモデルを提案する。
具体的には、従来のモデルにおける表現絡み合い問題を克服するために、従来のグラフ畳み込みを改訂し、異なる層からの情報を識別する。
また、各表現ベクトルは複数のセグメントに分解され、各セグメントはデータの1つの意味的側面に関連する。
我々のモデルでは、過去の研究と異なり、因子発見と表現学習が同時に行われ、付加的な属性情報や知識を扱うことができる。
このようにして、提案モデルは、ユーザやアイテムに対する解釈可能かつ意味のある表現を学ぶことができる。
説明可能性と有効性の間のトレードオフが必要な従来の方法とは異なり,提案手法の性能は説明可能性を考慮すると否定的な影響を受けない。
最後に,モデルの性能と説明の忠実性を検証するため,包括的な実験を行った。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Supervised Contrastive Learning for Affect Modelling [2.570570340104555]
情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
論文 参考訳(メタデータ) (2022-08-25T17:40:19Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。