論文の概要: Explainability in Music Recommender Systems
- arxiv url: http://arxiv.org/abs/2201.10528v1
- Date: Tue, 25 Jan 2022 18:32:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 16:48:42.189773
- Title: Explainability in Music Recommender Systems
- Title(参考訳): 音楽レコメンダシステムの説明可能性
- Authors: Darius Afchar, Alessandro B. Melchiorre, Markus Schedl, Romain
Hennequin, Elena V. Epure, Manuel Moussallam
- Abstract要約: 音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
- 参考スコア(独自算出の注目度): 69.0506502017444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The most common way to listen to recorded music nowadays is via streaming
platforms which provide access to tens of millions of tracks. To assist users
in effectively browsing these large catalogs, the integration of Music
Recommender Systems (MRSs) has become essential. Current real-world MRSs are
often quite complex and optimized for recommendation accuracy. They combine
several building blocks based on collaborative filtering and content-based
recommendation. This complexity can hinder the ability to explain
recommendations to end users, which is particularly important for
recommendations perceived as unexpected or inappropriate. While pure
recommendation performance often correlates with user satisfaction,
explainability has a positive impact on other factors such as trust and
forgiveness, which are ultimately essential to maintain user loyalty.
In this article, we discuss how explainability can be addressed in the
context of MRSs. We provide perspectives on how explainability could improve
music recommendation algorithms and enhance user experience. First, we review
common dimensions and goals of recommenders' explainability and in general of
eXplainable Artificial Intelligence (XAI), and elaborate on the extent to which
these apply -- or need to be adapted -- to the specific characteristics of
music consumption and recommendation. Then, we show how explainability
components can be integrated within a MRS and in what form explanations can be
provided. Since the evaluation of explanation quality is decoupled from pure
accuracy-based evaluation criteria, we also discuss requirements and strategies
for evaluating explanations of music recommendations. Finally, we describe the
current challenges for introducing explainability within a large-scale
industrial music recommender system and provide research perspectives.
- Abstract(参考訳): 現在、録音された音楽を聴く最も一般的な方法は、何千万もの曲にアクセスできるストリーミングプラットフォームである。
これらの大規模なカタログを効果的に閲覧するためには,音楽レコメンダシステム(MRS)の統合が不可欠である。
現在の現実世界のmrsは、非常に複雑で、推奨精度に最適化されていることが多い。
共同フィルタリングとコンテンツベースのレコメンデーションに基づいて、いくつかのビルディングブロックを組み合わせる。
この複雑さは、エンドユーザーにレコメンデーションを説明する能力を妨げる可能性がある。
純粋なレコメンデーションのパフォーマンスはユーザの満足度と相関することが多いが、説明可能性は他の要因、例えば信頼や許しなどに対して肯定的な影響を与える。
本稿では,mrsの文脈で説明可能性に対処する方法について述べる。
我々は,音楽レコメンデーションアルゴリズムを改良し,ユーザエクスペリエンスを向上させるための説明可能性に関する視点を提供する。
まず,推薦者の説明可能性とeXplainable Artificial Intelligence(XAI)の一般性に関する共通次元と目標を概観し,音楽消費とレコメンデーションの具体的な特徴について,その適用範囲を詳細に検討する。
次に、mrsにどのように説明可能性コンポーネントを組み込むか、どのようにフォーム説明が提供できるかを示す。
説明品質の評価は純粋精度に基づく評価基準から切り離されているため,音楽レコメンデーションの説明を評価するための要件と戦略についても論じる。
最後に, 大規模産業音楽レコメンダシステムにおける説明可能性導入の課題について述べるとともに, 研究の展望について述べる。
関連論文リスト
- User-Controllable Recommendation via Counterfactual Retrospective and
Prospective Explanations [96.45414741693119]
本稿では,説明可能性と可制御性をシームレスに統合するユーザ制御型レコメンデータシステムを提案する。
反ファクト推論を通じて、ふりかえりと予測的な説明の両方を提供することで、ユーザーはシステムに対する制御をカスタマイズできる。
論文 参考訳(メタデータ) (2023-08-02T01:13:36Z) - DRIFT: A Federated Recommender System with Implicit Feedback on the
Items [0.0]
DRIFTは、暗黙のフィードバックを使用してレコメンデーションシステムのための連合アーキテクチャである。
我々の学習モデルは、暗黙のフィードバックSAROSを用いた最近のアルゴリズムに基づく。
我々のアルゴリズムは安全であり、当社のフェデレーションシステムの参加者は、ユーザによるインタラクションを推測できない。
論文 参考訳(メタデータ) (2023-04-17T13:12:33Z) - Multimodal Recommender Systems: A Survey [50.23505070348051]
マルチモーダル・レコメンダ・システム(MRS)は近年,学界と産業の両方から注目を集めている。
本稿では,主に技術的観点から,MSSモデルに関する総合的な調査を行う。
実装コードなど、調査された論文の詳細にアクセスするために、リポジトリをオープンソース化します。
論文 参考訳(メタデータ) (2023-02-08T05:12:54Z) - Reinforced Path Reasoning for Counterfactual Explainable Recommendation [10.36395995374108]
本稿では,項目属性に基づく反現実的説明を生成するために,CERec を新たに提案する。
我々は、与えられた知識グラフのリッチなコンテキスト情報を用いて、適応経路サンプリング器を用いて巨大な探索空間を縮小する。
論文 参考訳(メタデータ) (2022-07-14T05:59:58Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Learning to Ask Appropriate Questions in Conversational Recommendation [49.31942688227828]
対話型レコメンデーションのための新しいフレームワークであるKnowledge-Based Question Generation System (KBQG)を提案する。
KBQGは、構造化知識グラフから最も関連性の高い関係を識別することにより、ユーザの好みをよりきめ細かな粒度でモデル化する。
最終的には、正確な推奨は会話の順番を少なくして生成できる。
論文 参考訳(メタデータ) (2021-05-11T03:58:10Z) - ELIXIR: Learning from User Feedback on Explanations to Improve
Recommender Models [26.11434743591804]
説明に対するユーザフィードバックをユーザ好みのペアワイズ学習に活用する,ループ内人間フレームワーク ELIXIR を考案した。
elixirは、レコメンデーションと説明のペアに対するフィードバックを活用して、ユーザ固有の潜在選好ベクトルを学習する。
このフレームワークは、ランダムウォークとリスタートによる一般化グラフレコメンデーションを用いてインスタンス化される。
論文 参考訳(メタデータ) (2021-02-15T13:43:49Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Interacting with Explanations through Critiquing [40.69540222716043]
本稿では,レビューテキストからレコメンデーションのパーソナライズされた説明を生成する手法を提案する。
我々は,最先端技術による説明よりも,人間の方がこれらの説明をはるかに好んでいることを示す。
私たちの仕事の最も重要なイノベーションは、ユーザーがテキストの説明を批判することでレコメンデーションに反応できることです。
論文 参考訳(メタデータ) (2020-05-22T09:03:06Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。