論文の概要: Explainable Recommender Systems via Resolving Learning Representations
- arxiv url: http://arxiv.org/abs/2008.09316v1
- Date: Fri, 21 Aug 2020 05:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:00:38.358286
- Title: Explainable Recommender Systems via Resolving Learning Representations
- Title(参考訳): 学習表現の解決による説明可能なレコメンダシステム
- Authors: Ninghao Liu, Yong Ge, Li Li, Xia Hu, Rui Chen, Soo-Hyun Choi
- Abstract要約: 説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
- 参考スコア(独自算出の注目度): 57.24565012731325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems play a fundamental role in web applications in filtering
massive information and matching user interests. While many efforts have been
devoted to developing more effective models in various scenarios, the
exploration on the explainability of recommender systems is running behind.
Explanations could help improve user experience and discover system defects. In
this paper, after formally introducing the elements that are related to model
explainability, we propose a novel explainable recommendation model through
improving the transparency of the representation learning process.
Specifically, to overcome the representation entangling problem in traditional
models, we revise traditional graph convolution to discriminate information
from different layers. Also, each representation vector is factorized into
several segments, where each segment relates to one semantic aspect in data.
Different from previous work, in our model, factor discovery and representation
learning are simultaneously conducted, and we are able to handle extra
attribute information and knowledge. In this way, the proposed model can learn
interpretable and meaningful representations for users and items. Unlike
traditional methods that need to make a trade-off between explainability and
effectiveness, the performance of our proposed explainable model is not
negatively affected after considering explainability. Finally, comprehensive
experiments are conducted to validate the performance of our model as well as
explanation faithfulness.
- Abstract(参考訳): Recommender システムは、大量の情報をフィルタリングし、ユーザの関心をマッチさせるウェブアプリケーションにおいて、基本的な役割を果たす。
様々なシナリオにおいてより効果的なモデルの開発に多くの努力が注がれているが、レコメンダシステムの説明可能性に関する調査は遅れを取っている。
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,モデル説明可能性に関連する要素を形式的に導入した後,表現学習プロセスの透明性を向上させることにより,新しい説明可能なレコメンデーションモデルを提案する。
具体的には、従来のモデルにおける表現絡み合い問題を克服するために、従来のグラフ畳み込みを改訂し、異なる層からの情報を識別する。
また、各表現ベクトルは複数のセグメントに分解され、各セグメントはデータの1つの意味的側面に関連する。
我々のモデルでは、過去の研究と異なり、因子発見と表現学習が同時に行われ、付加的な属性情報や知識を扱うことができる。
このようにして、提案モデルは、ユーザやアイテムに対する解釈可能かつ意味のある表現を学ぶことができる。
説明可能性と有効性の間のトレードオフが必要な従来の方法とは異なり,提案手法の性能は説明可能性を考慮すると否定的な影響を受けない。
最後に,モデルの性能と説明の忠実性を検証するため,包括的な実験を行った。
関連論文リスト
- Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Supervised Contrastive Learning for Affect Modelling [2.570570340104555]
情報に影響を及ぼすことを考慮に入れた訓練表現のための3つの異なる教師付きコントラスト学習手法を導入する。
その結果、コントラスト学習の表現能力と、影響モデルの精度を高めるための効率が示された。
論文 参考訳(メタデータ) (2022-08-25T17:40:19Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。