論文の概要: Explainable Recommender with Geometric Information Bottleneck
- arxiv url: http://arxiv.org/abs/2305.05331v1
- Date: Tue, 9 May 2023 10:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:07:44.822350
- Title: Explainable Recommender with Geometric Information Bottleneck
- Title(参考訳): Geometric Information Bottleneckを用いた説明可能なレコメンダ
- Authors: Hanqi Yan, Lin Gui, Menghan Wang, Kun Zhang, Yulan He
- Abstract要約: 本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 34.64969905244948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable recommender systems can explain their recommendation decisions,
enhancing user trust in the systems. Most explainable recommender systems
either rely on human-annotated rationales to train models for explanation
generation or leverage the attention mechanism to extract important text spans
from reviews as explanations. The extracted rationales are often confined to an
individual review and may fail to identify the implicit features beyond the
review text. To avoid the expensive human annotation process and to generate
explanations beyond individual reviews, we propose to incorporate a geometric
prior learnt from user-item interactions into a variational network which
infers latent factors from user-item reviews. The latent factors from an
individual user-item pair can be used for both recommendation and explanation
generation, which naturally inherit the global characteristics encoded in the
prior knowledge. Experimental results on three e-commerce datasets show that
our model significantly improves the interpretability of a variational
recommender using the Wasserstein distance while achieving performance
comparable to existing content-based recommender systems in terms of
recommendation behaviours.
- Abstract(参考訳): 説明可能なレコメンデータシステムは、レコメンデーションの決定を説明し、システムに対するユーザの信頼を高めることができる。
ほとんどの説明可能なレコメンデータシステムは、説明生成のためのモデルをトレーニングするために、人間の注釈による推論に依存するか、レビューから重要なテキストスパンを説明として抽出するために注意メカニズムを利用する。
抽出された合理性はしばしば個々のレビューに制限され、レビューテキスト以外の暗黙的な特徴を特定することができない。
コストのかかる人的アノテーションのプロセスを避け,個々のレビューを超えて説明を生成するために,ユーザとイテムのインタラクションから学習した幾何学的事前学習を,ユーザとイテムのレビューから潜在要因を推測する変動ネットワークに組み込むことを提案する。
個別のユーザ・イテムペアからの潜伏因子は、推薦と説明の生成の両方に利用することができ、これは、前回の知識で符号化されたグローバルな特性を自然に継承する。
3つの電子商取引データセットによる実験結果から,提案手法は推薦行動の観点から既存のコンテンツベースレコメンデータシステムに匹敵する性能を保ちながら,ワッサーシュタイン距離を用いた変分レコメンデータの解釈可能性を大幅に向上することが示された。
関連論文リスト
- Beyond Thumbs Up/Down: Untangling Challenges of Fine-Grained Feedback for Text-to-Image Generation [67.88747330066049]
きめ細かいフィードバックは、画像の品質と迅速な調整におけるニュアンスドの区別を捉えます。
粗いフィードバックに対する優位性を示すことは、自動ではないことを示す。
きめ細かいフィードバックを抽出し活用する上で重要な課題を特定します。
論文 参考訳(メタデータ) (2024-06-24T17:19:34Z) - Stability of Explainable Recommendation [10.186029242664931]
既存の特徴指向の説明可能なレコメンデーションの脆弱性について検討する。
我々は、全ての説明可能なモデルが騒音レベルの増加に弱いことを観察する。
本研究は,レコメンデーションシステムにおけるロバストな説明の話題について,実証的な検証を行った。
論文 参考訳(メタデータ) (2024-05-03T04:44:51Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - Knowledge-grounded Natural Language Recommendation Explanation [11.58207109487333]
自然言語の説明可能なレコメンデーションに対する知識グラフ(KG)アプローチを提案する。
提案手法は,新しいコラボレーティブフィルタリングに基づくKG表現により,ユーザイテムの特徴を引き出す。
実験結果から,提案手法は,従来の自然言語説明推薦モデルよりも一貫して優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-30T07:36:12Z) - Graph-based Extractive Explainer for Recommendations [38.278148661173525]
ユーザ,項目,属性,文をシームレスに統合し,抽出に基づく説明を行うグラフ注意型ニューラルネットワークモデルを開発した。
個々の文の関連性, 属性カバレッジ, 内容冗長性のバランスをとるために, 整数線形プログラミング問題を解くことにより, 文の最終的な選択を行う。
論文 参考訳(メタデータ) (2022-02-20T04:56:10Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Interacting with Explanations through Critiquing [40.69540222716043]
本稿では,レビューテキストからレコメンデーションのパーソナライズされた説明を生成する手法を提案する。
我々は,最先端技術による説明よりも,人間の方がこれらの説明をはるかに好んでいることを示す。
私たちの仕事の最も重要なイノベーションは、ユーザーがテキストの説明を批判することでレコメンデーションに反応できることです。
論文 参考訳(メタデータ) (2020-05-22T09:03:06Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。