論文の概要: Is More Always Better? The Effects of Personal Characteristics and Level
of Detail on the Perception of Explanations in a Recommender System
- arxiv url: http://arxiv.org/abs/2304.00969v1
- Date: Mon, 3 Apr 2023 13:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:22:25.924837
- Title: Is More Always Better? The Effects of Personal Characteristics and Level
of Detail on the Perception of Explanations in a Recommender System
- Title(参考訳): いつももっといいの?
推薦者システムにおける説明の知覚に及ぼす個人的特徴と詳細度の影響
- Authors: Mohamed Amine Chatti and Mouadh Guesmi and Laura Vorgerd and Thao Ngo
and Shoeb Joarder and Qurat Ul Ain and Arham Muslim
- Abstract要約: 本論文では,一律に適合するアプローチからパーソナライズされたアプローチ,説明可能なレコメンデーションへの転換を目標としている。
我々は、オンデマンドでパーソナライズされた説明を提供する透明なレコメンデーションと関心モデリングアプリケーション(RIMA)を開発した。
以上の結果から,説明可能なRSの認知度は,説明目標とユーザタイプによって異なる度合いに左右されることが示唆された。
- 参考スコア(独自算出の注目度): 1.1545092788508224
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the acknowledgment that the perception of explanations may vary
considerably between end-users, explainable recommender systems (RS) have
traditionally followed a one-size-fits-all model, whereby the same explanation
level of detail is provided to each user, without taking into consideration
individual user's context, i.e., goals and personal characteristics. To fill
this research gap, we aim in this paper at a shift from a one-size-fits-all to
a personalized approach to explainable recommendation by giving users agency in
deciding which explanation they would like to see. We developed a transparent
Recommendation and Interest Modeling Application (RIMA) that provides on-demand
personalized explanations of the recommendations, with three levels of detail
(basic, intermediate, advanced) to meet the demands of different types of
end-users. We conducted a within-subject study (N=31) to investigate the
relationship between user's personal characteristics and the explanation level
of detail, and the effects of these two variables on the perception of the
explainable RS with regard to different explanation goals. Our results show
that the perception of explainable RS with different levels of detail is
affected to different degrees by the explanation goal and user type.
Consequently, we suggested some theoretical and design guidelines to support
the systematic design of explanatory interfaces in RS tailored to the user's
context.
- Abstract(参考訳): 説明の認識はエンドユーザによって大きく異なる可能性があるが、説明可能なレコメンデーションシステム(rs)は伝統的に1サイズモデルに従っており、個々のユーザのコンテキスト、すなわち目標や個人の特性を考慮せずに、各ユーザに対して同じ詳細な説明レベルを提供する。
この研究ギャップを埋めるため,本稿では,ユーザエージェンシーに,どの説明を見たいかを決めることによって,パーソナライズされたアプローチから,パーソナライズ可能なレコメンデーションへの転換を目指す。
我々は,様々なタイプのエンドユーザの要求を満たすために,3段階の詳細な情報(基本,中間,高度)を,オンデマンドでパーソナライズしたレコメンデーションの説明を提供する透明なレコメンデーションと関心モデリングアプリケーション(RIMA)を開発した。
対象内調査(n=31)を行い,利用者の個人的特性と詳細な説明レベルとの関係と,これら2つの変数が異なる説明目標に対する説明可能なrsの知覚に及ぼす影響について検討した。
その結果,細部レベルの異なる説明可能なrsの認識は,説明目標とユーザタイプによって異なる程度に影響を受けることがわかった。
そこで本稿では,ユーザのコンテキストに合わせて記述インタフェースの体系設計を支援するための理論的および設計ガイドラインを提案する。
関連論文リスト
- Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System [0.5937476291232802]
本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
論文 参考訳(メタデータ) (2023-06-09T10:48:04Z) - Justification vs. Transparency: Why and How Visual Explanations in a
Scientific Literature Recommender System [0.0]
我々は,「なぜ」と「どのように説明しやすさのタイプ」と「正当化」と「透明性」の「説明目標」の関係を識別する。
本研究は,説明の難易度の種類の選択が,説明の目的とユーザタイプに依存することを示す。
論文 参考訳(メタデータ) (2023-05-26T15:40:46Z) - Explainable Recommender with Geometric Information Bottleneck [25.703872435370585]
本稿では,ユーザ-イテム相互作用から学習した幾何学的事前学習を変分ネットワークに組み込むことを提案する。
個々のユーザとイテムペアからの遅延因子は、レコメンデーションと説明生成の両方に使用することができる。
3つの電子商取引データセットの実験結果から,我々のモデルは変分レコメンデータの解釈可能性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-05-09T10:38:36Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Not all users are the same: Providing personalized explanations for
sequential decision making problems [25.24098967133101]
本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
論文 参考訳(メタデータ) (2021-06-23T07:46:19Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。