論文の概要: How Does Users' App Knowledge Influence the Preferred Level of Detail and Format of Software Explanations?
- arxiv url: http://arxiv.org/abs/2502.06549v1
- Date: Mon, 10 Feb 2025 15:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:15.407012
- Title: How Does Users' App Knowledge Influence the Preferred Level of Detail and Format of Software Explanations?
- Title(参考訳): ユーザのアプリ知識は、ソフトウェア説明の精度とフォーマットの優先順位にどのように影響するか?
- Authors: Martin Obaidi, Jannik Fischbach, Marc Herrmann, Hannah Deters, Jakob Droste, Jil Klünder, Kurt Schneider,
- Abstract要約: 本研究では,ユーザが好む詳細度とソフトウェアにおける説明形式に影響を及ぼす要因について検討する。
結果は、ユーザーは短いテキスト形式で適度に詳細な説明を好んでいることを示している。
分析の結果,説明の嗜好はアプリ固有の知識に弱い影響を受けているが,人口統計学的要因や心理的要因によって形成されていることがわかった。
- 参考スコア(独自算出の注目度): 2.423517761302909
- License:
- Abstract: Context and Motivation: Due to their increasing complexity, everyday software systems are becoming increasingly opaque for users. A frequently adopted method to address this difficulty is explainability, which aims to make systems more understandable and usable. Question/problem: However, explanations can also lead to unnecessary cognitive load. Therefore, adapting explanations to the actual needs of a user is a frequently faced challenge. Principal ideas/results: This study investigates factors influencing users' preferred the level of detail and the form of an explanation (e.g., short text or video tutorial) in software. We conducted an online survey with 58 participants to explore relationships between demographics, software usage, app-specific knowledge, as well as their preferred explanation form and level of detail. The results indicate that users prefer moderately detailed explanations in short text formats. Correlation analyses revealed no relationship between app-specific knowledge and the preferred level of detail of an explanation, but an influence of demographic aspects (like gender) on app-specific knowledge and its impact on application confidence were observed, pointing to a possible mediated relationship between knowledge and preferences for explanations. Contribution: Our results show that explanation preferences are weakly influenced by app-specific knowledge but shaped by demographic and psychological factors, supporting the development of adaptive explanation systems tailored to user expertise. These findings support requirements analysis processes by highlighting important factors that should be considered in user-centered methods such as personas.
- Abstract(参考訳): コンテキストとモチベーション: 複雑さが増すにつれ、日々のソフトウェアシステムはユーザにとって不透明になりつつある。
この困難に対処する頻繁な手法は、システムをより理解しやすく使いやすくすることを目的とした説明可能性である。
質問/問題:しかしながら、説明は不必要な認知負荷につながる可能性がある。
したがって、ユーザの実際のニーズに説明を適用することは、しばしば直面している課題である。
主観/再帰性:本研究では,ソフトウェアにおける詳細レベルと説明文(例えば,短いテキストやビデオチュートリアル)の形式に影響を及ぼす要因について検討する。
我々は58人の参加者とともにオンライン調査を行い、人口統計、ソフトウェアの使用状況、アプリ固有の知識、好みの説明形式、詳細レベルの関係について調査した。
その結果、ユーザは短いテキスト形式で、適度に詳細な説明を好みます。
相関分析の結果,アプリ固有の知識と説明の詳細な詳細度との間には関連性は認められなかったが,アプリ固有の知識に対する人口統計学的側面(性別など)の影響と,その信頼性への影響が観察され,知識と説明の嗜好の相互関係が示唆された。
コントリビューション: この結果から, 説明の嗜好はアプリ固有の知識に弱いが, 人口的・心理的要因によって形成され, ユーザの専門知識に合わせた適応的説明システムの開発を支援することが示唆された。
これらの知見は,ペルソナのようなユーザ中心の手法で考慮すべき重要な要素を強調することで,要求分析プロセスを支援する。
関連論文リスト
- QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - Tell me more: Intent Fulfilment Framework for Enhancing User Experiences in Conversational XAI [0.6333053895057925]
本稿では,ユーザのXAIニーズに対して,異なるタイプの説明が協調的にどのように適合するかを考察する。
Intent Fulfilment Framework (IFF)を導入した。
Explanation Experience Dialogue Model は IFF と "Explanation Followups" を統合し,対話型インターフェースを提供する。
論文 参考訳(メタデータ) (2024-05-16T21:13:43Z) - Explainability for Transparent Conversational Information-Seeking [13.790574266700006]
本研究は,反応を説明する様々な方法について考察する。
本研究は,説明タイプ,品質,提示モードの透過性を探索することにより,システム生成応答とユーザが検証可能な応答とのギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-05-06T09:25:14Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - What if you said that differently?: How Explanation Formats Affect Human Feedback Efficacy and User Perception [53.4840989321394]
我々は,QAモデルが生成した有理性の効果を分析し,その答えを支持する。
ユーザに対して,様々な形式で誤った回答とそれに対応する有理性を提示する。
このフィードバックの有効性を,文脈内学習を通じて評価する。
論文 参考訳(メタデータ) (2023-11-16T04:26:32Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - Interactive Explanation with Varying Level of Details in an Explainable
Scientific Literature Recommender System [0.5937476291232802]
本稿では,ユーザ中心の対話型説明モデルの採用を目標とし,さまざまな詳細レベルの説明を提供するとともに,ユーザのニーズや好みに基づいた説明の対話,制御,パーソナライズを可能にする。
本研究では,対話的説明の提供がユーザによる説明可能なRSの知覚に与える影響について質的研究を行った。
論文 参考訳(メタデータ) (2023-06-09T10:48:04Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。