論文の概要: Justification vs. Transparency: Why and How Visual Explanations in a
Scientific Literature Recommender System
- arxiv url: http://arxiv.org/abs/2305.17034v1
- Date: Fri, 26 May 2023 15:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:46:40.457348
- Title: Justification vs. Transparency: Why and How Visual Explanations in a
Scientific Literature Recommender System
- Title(参考訳): 正当性対透明性:科学文献レコメンダシステムにおける視覚的説明の理由と方法
- Authors: Mouadh Guesmi and Mohamed Amine Chatti and Shoeb Joarder and Qurat Ul
Ain and Clara Siepmann and Hoda Ghanbarzadeh and Rawaa Alatrash
- Abstract要約: 我々は,「なぜ」と「どのように説明しやすさのタイプ」と「正当化」と「透明性」の「説明目標」の関係を識別する。
本研究は,説明の難易度の種類の選択が,説明の目的とユーザタイプに依存することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Significant attention has been paid to enhancing recommender systems (RS)
with explanation facilities to help users make informed decisions and increase
trust in and satisfaction with the RS. Justification and transparency represent
two crucial goals in explainable recommendation. Different from transparency,
which faithfully exposes the reasoning behind the recommendation mechanism,
justification conveys a conceptual model that may differ from that of the
underlying algorithm. An explanation is an answer to a question. In explainable
recommendation, a user would want to ask questions (referred to as
intelligibility types) to understand results given by the RS. In this paper, we
identify relationships between Why and How explanation intelligibility types
and the explanation goals of justification and transparency. We followed the
Human-Centered Design (HCD) approach and leveraged the What-Why-How
visualization framework to systematically design and implement Why and How
visual explanations in the transparent Recommendation and Interest Modeling
Application (RIMA). Furthermore, we conducted a qualitative user study (N=12)
to investigate the potential effects of providing Why and How explanations
together in an explainable RS on the users' perceptions regarding transparency,
trust, and satisfaction. Our study showed qualitative evidence confirming that
the choice of the explanation intelligibility types depends on the explanation
goal and user type.
- Abstract(参考訳): ユーザが情報的意思決定を行い、RSに対する信頼と満足を高めるための説明機能を備えたレコメンデーターシステム(RS)の強化に注目が集まっている。
正当化と透明性は、説明可能な推奨において2つの重要な目標を表します。
推奨機構の背後にある推論を忠実に公開する透明性とは異なり、正当化は基礎となるアルゴリズムと異なる概念モデルを提供する。
説明は質問に対する答えである。
説明可能なレコメンデーションでは、ユーザーは、rsが与えた結果を理解するために(知性タイプとして参照)質問をしたい。
本稿では,説明の理解可能性タイプと正当化と透明性の説明目標との関係を明らかにする。
我々は、Human-Centered Design(HCD)アプローチに従い、What-Why-How可視化フレームワークを利用して、透明な勧告と関心モデリングアプリケーション(RIMA)における視覚的説明を体系的に設計し実装した。
さらに, 説明可能なrsにおける説明が, 透明性, 信頼, 満足度に関するユーザの認識に与える影響を検討するために, 質的ユーザ調査 (n=12) を実施した。
本研究は,説明可能型の選択が説明目標とユーザタイプに依存することを確認する質的証拠を示した。
関連論文リスト
- Explainability for Transparent Conversational Information-Seeking [13.790574266700006]
本研究は,反応を説明する様々な方法について考察する。
本研究は,説明タイプ,品質,提示モードの透過性を探索することにより,システム生成応答とユーザが検証可能な応答とのギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-05-06T09:25:14Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System [0.5937476291232802]
本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
論文 参考訳(メタデータ) (2023-06-09T10:48:04Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - Is More Always Better? The Effects of Personal Characteristics and Level
of Detail on the Perception of Explanations in a Recommender System [1.1545092788508224]
本論文では,一律に適合するアプローチからパーソナライズされたアプローチ,説明可能なレコメンデーションへの転換を目標としている。
我々は、オンデマンドでパーソナライズされた説明を提供する透明なレコメンデーションと関心モデリングアプリケーション(RIMA)を開発した。
以上の結果から,説明可能なRSの認知度は,説明目標とユーザタイプによって異なる度合いに左右されることが示唆された。
論文 参考訳(メタデータ) (2023-04-03T13:40:08Z) - From Intrinsic to Counterfactual: On the Explainability of
Contextualized Recommender Systems [43.93801836660617]
本研究では、コンテキスト的特徴(例えば、ユーザからの項目レビュー)を活用することで、一連の説明可能なレコメンデータシステムを設計できることを示す。
モデルの透明性を段階的に変化させる3つの方法として,ホワイトボックス,グレーボックス,ブラックボックスの3種類を提案する。
我々のモデルは高い競争力のあるランキング性能を達成し、多数の量的指標と定性的な視覚化の観点から正確かつ効果的な説明を生成する。
論文 参考訳(メタデータ) (2021-10-28T01:54:04Z) - Counterfactual Explainable Recommendation [22.590877963169103]
本稿では、因果推論から反実的推論の洞察を取り入れて説明可能な推薦を行うCountERを提案する。
CountERは、モデル決定に対して単純(低複雑性)で効果的な(高強度)説明を求める。
以上の結果から,我々のモデルは,最先端のレコメンデーションモデルよりも正確かつ効果的に説明できることを示す。
論文 参考訳(メタデータ) (2021-08-24T06:37:57Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。