論文の概要: Measuring "Why" in Recommender Systems: a Comprehensive Survey on the
Evaluation of Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2202.06466v1
- Date: Mon, 14 Feb 2022 02:58:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 05:30:45.288287
- Title: Measuring "Why" in Recommender Systems: a Comprehensive Survey on the
Evaluation of Explainable Recommendation
- Title(参考訳): レコメンデーションシステムにおける「なぜ」測定:説明可能なレコメンデーションの評価に関する総合的研究
- Authors: Xu Chen and Yongfeng Zhang and Ji-Rong Wen
- Abstract要約: この調査は、IJCAI、AAAI、TheWebConf、Recsys、UMAP、IUIといったトップレベルのカンファレンスから100以上の論文に基づいています。
- 参考スコア(独自算出の注目度): 87.82664566721917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable recommendation has shown its great advantages for improving
recommendation persuasiveness, user satisfaction, system transparency, among
others. A fundamental problem of explainable recommendation is how to evaluate
the explanations. In the past few years, various evaluation strategies have
been proposed. However, they are scattered in different papers, and there lacks
a systematic and detailed comparison between them. To bridge this gap, in this
paper, we comprehensively review the previous work, and provide different
taxonomies for them according to the evaluation perspectives and evaluation
methods. Beyond summarizing the previous work, we also analyze the
(dis)advantages of existing evaluation methods and provide a series of
guidelines on how to select them. The contents of this survey are based on more
than 100 papers from top-tier conferences like IJCAI, AAAI, TheWebConf, Recsys,
UMAP, and IUI, and their complete summarization are presented at
https://shimo.im/sheets/VKrpYTcwVH6KXgdy/MODOC/. With this survey, we finally
aim to provide a clear and comprehensive review on the evaluation of
explainable recommendation.
- Abstract(参考訳): 説明可能なレコメンデーションは、レコメンデーションの説得力、ユーザの満足度、システムの透明性などを改善する大きな利点を示している。
説明可能な推奨の根本的な問題は、説明を評価する方法である。
近年,様々な評価手法が提案されている。
しかし、それらは異なる論文に散在しており、体系的かつ詳細な比較が欠けている。
このギャップを埋めるために,本稿では,過去の研究を包括的にレビューし,評価の観点や評価方法によって異なる分類法を提供する。
これまでの成果を要約するだけでなく,既存の評価手法の (dis) アドバンテージを分析し,その選択方法に関する一連のガイドラインを提供する。
この調査の内容は、IJCAI、AAAI、TheWebConf、Recsys、UMAP、IUIといったトップ層カンファレンスの100以上の論文に基づいており、その完全な要約はhttps://shimo.im/sheets/VKrpYTcwVH6KXgdy/MODOC/で発表されている。
本調査により, 説明可能な推薦の評価について, 明確かつ包括的に検討することを目指している。
関連論文リスト
- Revisiting Reciprocal Recommender Systems: Metrics, Formulation, and Method [60.364834418531366]
RRSの性能を包括的かつ正確に評価する5つの新しい評価指標を提案する。
因果的観点からRSを定式化し、二元的介入として勧告を定式化する。
提案手法では,結果の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T07:21:02Z) - Review of Explainable Graph-Based Recommender Systems [2.1711205684359247]
本稿では,説明可能なグラフベースレコメンデータシステムの最先端のアプローチについて論じる。
それは、学習方法、説明方法、説明型という3つの側面に基づいて分類する。
論文 参考訳(メタデータ) (2024-07-31T21:30:36Z) - Large-Scale and Multi-Perspective Opinion Summarization with Diverse
Review Subsets [23.515892409202344]
SUBSUMMは大規模多視点意見要約のための教師付き要約フレームワークである。
数百のインプットレビューから、プロ、コン、そして検証の要約を生成する。
論文 参考訳(メタデータ) (2023-10-20T08:08:13Z) - Impression-Aware Recommender Systems [57.38537491535016]
新たなデータソースは、レコメンデーションシステムの品質を改善する新しい機会をもたらす。
研究者はインプレッションを使ってユーザーの好みを洗練させ、推奨システム研究の現在の制限を克服することができる。
本稿ではインプレッションを用いたレコメンデーションシステムに関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-08-15T16:16:02Z) - No Agreement Without Loss: Learning and Social Choice in Peer Review [0.0]
それぞれのレビュアーが、機能セットからレコメンデーションへの独自のマッピングを持っていると仮定してもよいでしょう。
これは、共振バイアス(commensuration bias)として知られる任意の要素を導入する。
Noothigattu, Shah and Procaccia は、ある種の損失関数を最小化することによってレビュアーのマッピングを集約することを提案した。
論文 参考訳(メタデータ) (2022-11-03T21:03:23Z) - Evaluating the Predictive Performance of Positive-Unlabelled
Classifiers: a brief critical review and practical recommendations for
improvement [77.34726150561087]
Positive-Unlabelled (PU) 学習は機械学習の領域として成長している。
本稿では、PU分類器を提案する51の論文において、主要なPU学習評価手法と予測精度の選択について批判的にレビューする。
論文 参考訳(メタデータ) (2022-06-06T08:31:49Z) - A Comprehensive Overview of Recommender System and Sentiment Analysis [1.370633147306388]
本稿では,レコメンデーションシステムと感情分析の活用を目指す研究者を支援するために,包括的概要を提供する。
これには、フェーズ、アプローチ、レコメンダシステムで使用されるパフォーマンスメトリクスなど、レコメンダシステムの概念の背景が含まれている。
次に、感情分析の概念について議論し、レベル、アプローチを含む感情分析の要点を強調し、アスペクトベースの感情分析に焦点を当てる。
論文 参考訳(メタデータ) (2021-09-18T01:08:41Z) - Unsupervised Reference-Free Summary Quality Evaluation via Contrastive
Learning [66.30909748400023]
教師なしコントラスト学習により,参照要約を使わずに要約品質を評価することを提案する。
具体的には、BERTに基づく言語的品質と意味情報の両方をカバーする新しい指標を設計する。
ニューズルームとCNN/デイリーメールの実験では,新たな評価手法が参照サマリーを使わずに他の指標よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-05T05:04:14Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。