論文の概要: Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System
- arxiv url: http://arxiv.org/abs/2306.05809v2
- Date: Wed, 20 Sep 2023 13:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 20:37:51.516506
- Title: Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System
- Title(参考訳): 説明可能な科学文献レコメンデーションシステムにおける詳細条件付き対話的説明
- Authors: Mouadh Guesmi and Mohamed Amine Chatti and Shoeb Joarder and Qurat Ul
Ain and Rawaa Alatrash and Clara Siepmann and Tannaz Vahidi
- Abstract要約: 本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
- 参考スコア(独自算出の注目度): 0.5937476291232802
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable recommender systems (RS) have traditionally followed a
one-size-fits-all approach, delivering the same explanation level of detail to
each user, without considering their individual needs and goals. Further,
explanations in RS have so far been presented mostly in a static and
non-interactive manner. To fill these research gaps, we aim in this paper to
adopt a user-centered, interactive explanation model that provides explanations
with different levels of detail and empowers users to interact with, control,
and personalize the explanations based on their needs and preferences. We
followed a user-centered approach to design interactive explanations with three
levels of detail (basic, intermediate, and advanced) and implemented them in
the transparent Recommendation and Interest Modeling Application (RIMA). We
conducted a qualitative user study (N=14) to investigate the impact of
providing interactive explanations with varying level of details on the users'
perception of the explainable RS. Our study showed qualitative evidence that
fostering interaction and giving users control in deciding which explanation
they would like to see can meet the demands of users with different needs,
preferences, and goals, and consequently can have positive effects on different
crucial aspects in explainable recommendation, including transparency, trust,
satisfaction, and user experience.
- Abstract(参考訳): 説明可能なレコメンデータシステム(RS)は従来,個々のニーズや目標を考慮せずに,ユーザ毎に同じ説明レベルの詳細を提供する,ワンサイズなアプローチを採用してきました。
さらに、RSにおける説明は、主に静的で非インタラクティブな方法で提示されている。
これらの研究ギャップを埋めるために、我々は、ユーザ中心のインタラクティブな説明モデルを導入し、様々な詳細レベルの説明を提供し、ユーザがニーズや好みに基づいて説明を対話し、制御し、パーソナライズできるようにする。
3段階のディテール(基本、中間、上級)によるインタラクティブな説明を設計するためのユーザ中心のアプローチに従って、透過的レコメンデーションおよび関心モデリングアプリケーション(rima)に実装しました。
筆者らは,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について,定性的なユーザスタディ (N=14) を行った。
本研究は,対話を育み,どのような説明を見たいかを決める上でユーザがコントロールできることが,異なるニーズ,好み,目標を持つユーザの要求に合致し,その結果,透明性,信頼,満足度,ユーザエクスペリエンスなど,説明可能なレコメンデーションのさまざまな重要な側面に肯定的な影響を与えるという質的証拠を示した。
関連論文リスト
- QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI [0.6333053895057925]
本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
論文 参考訳(メタデータ) (2024-05-16T21:13:43Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Notion of Explainable Artificial Intelligence -- An Empirical
Investigation from A Users Perspective [0.3069335774032178]
本研究は、ユーザ中心の説明可能なAIを調査し、研究コンテキストとしてレコメンデーションシステムを検討することを目的とする。
我々は,推薦システムに関する質的データを収集するために,フォーカスグループインタビューを行った。
以上の結果から,エンドユーザーはオンデマンドの補足情報による非技術的かつ適切な説明を望んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-01T22:20:14Z) - Justification vs. Transparency: Why and How Visual Explanations in a
Scientific Literature Recommender System [0.0]
我々は,「なぜ」と「どのように説明しやすさのタイプ」と「正当化」と「透明性」の「説明目標」の関係を識別する。
本研究は,説明の難易度の種類の選択が,説明の目的とユーザタイプに依存することを示す。
論文 参考訳(メタデータ) (2023-05-26T15:40:46Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - Is More Always Better? The Effects of Personal Characteristics and Level
of Detail on the Perception of Explanations in a Recommender System [1.1545092788508224]
本論文では,一律に適合するアプローチからパーソナライズされたアプローチ,説明可能なレコメンデーションへの転換を目標としている。
我々は、オンデマンドでパーソナライズされた説明を提供する透明なレコメンデーションと関心モデリングアプリケーション(RIMA)を開発した。
以上の結果から,説明可能なRSの認知度は,説明目標とユーザタイプによって異なる度合いに左右されることが示唆された。
論文 参考訳(メタデータ) (2023-04-03T13:40:08Z) - Justification of Recommender Systems Results: A Service-based Approach [4.640835690336653]
本稿では,サービスモデルを用いて商品とのインタラクションのすべての段階に関するレビューから経験データを抽出する,新たな正当化手法を提案する。
ユーザスタディでは,提案手法を,推奨システムの結果の正当性を反映したベースラインと比較した。
我々のモデルは、好奇心のレベルが異なるユーザや、認知の必要度(NfC)の低いユーザによって、より高いインタフェース適合度と満足度の評価を受けた。
これらの知見は、推薦システムの結果を正当化するためのサービスモデルの導入を奨励するが、多様なインタラクションニーズに適合するパーソナライズ戦略の調査を推奨する。
論文 参考訳(メタデータ) (2022-11-07T11:08:19Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Hybrid Deep Embedding for Recommendations with Dynamic Aspect-Level
Explanations [60.78696727039764]
アスペクトベースの説明可能なレコメンデーションのためのHybrid Deep Embeddingと呼ばれる新しいモデルを提案する。
HDEの主な考え方は、評価予測のためにユーザとアイテムの動的埋め込みを学ぶことである。
ユーザ/イテムのアスペクトの好みや品質が自動的に学習されるため、HDEは、ユーザや項目のレビューで言及されていないアスペクトの影響を捉えることができる。
論文 参考訳(メタデータ) (2020-01-18T13:16:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。