論文の概要: Do Users' Explainability Needs in Software Change with Mood?
- arxiv url: http://arxiv.org/abs/2502.06546v1
- Date: Mon, 10 Feb 2025 15:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:34:16.003047
- Title: Do Users' Explainability Needs in Software Change with Mood?
- Title(参考訳): ユーザの説明責任はMoodによるソフトウェア変革に必要か?
- Authors: Martin Obaidi, Jakob Droste, Hannah Deters, Marc Herrmann, Jil Klünder, Kurt Schneider,
- Abstract要約: 本研究では,ユーザの主観的感情と客観的人口統計学的側面が説明要求に与える影響について,頻度とタイプの説明による検討を行った。
我々は、説明の必要性は非常に主観的であり、部分的には客観的な要因にのみ依存していると結論づける。
- 参考スコア(独自算出の注目度): 2.42509778995617
- License:
- Abstract: Context and Motivation: The increasing complexity of modern software systems often challenges users' abilities to interact with them. Taking established quality attributes such as usability and transparency into account can mitigate this problem, but often do not suffice to completely solve it. Recently, explainability has emerged as essential non-functional requirement to help overcome the aforementioned difficulties. Question/problem: User preferences regarding the integration of explanations in software differ. Neither too few nor too many explanations are helpful. In this paper, we investigate the influence of a user's subjective mood and objective demographic aspects on explanation needs by means of frequency and type of explanation. Principal ideas/results: Our results reveal a limited relationship between these factors and explanation needs. Two significant correlations were identified: Emotional reactivity was positively correlated with the need for UI explanations, while a negative correlation was found between age and user interface needs. Contribution: As we only find very few significant aspects that influence the need for explanations, we conclude that the need for explanations is very subjective and does only partially depend on objective factors. These findings emphasize the necessity for software companies to actively gather user-specific explainability requirements to address diverse and context-dependent user demands. Nevertheless, future research should explore additional personal traits and cross-cultural factors to inform the development of adaptive, user-centered explanation systems.
- Abstract(参考訳): コンテキストとモチベーション: 現代のソフトウェアシステムの複雑さが増すにつれ、ユーザと対話する能力が問題になることが多い。
ユーザビリティや透明性といった確立した品質特性を考慮に入れると、この問題を軽減できますが、完全に解決するには十分ではありません。
近年、上記の困難を克服する上で必要不可欠な非機能要件として説明可能性が現れている。
Question/problem: ソフトウェアにおける説明の統合に関するユーザの好みは違います。
少なすぎる説明も多すぎる説明も役に立たない。
本稿では,ユーザの主観的感情と客観的人口統計的側面が説明要求に与える影響を,頻度とタイプの説明を用いて検討する。
主観/反感: この結果から, これらの要因と説明的ニーズとの間には, 限定的な関係が明らかになる。
感情の反応性はUI説明の必要性と肯定的に相関し,年齢とユーザインターフェースのニーズとの間には負の相関が認められた。
コントリビューション: 説明の必要性に影響を与える重要な側面はほとんど見つからないため、説明の必要性は非常に主観的であり、部分的には客観的要因にのみ依存していると結論付けている。
これらの知見は、ソフトウェア企業が多様なコンテキストに依存したユーザ要求に対応するために、ユーザ固有の説明可能性要件を積極的に収集する必要があることを強調している。
いずれにせよ、今後の研究は、適応型ユーザ中心の説明システムの開発に資する、人格的特質や異文化的要因を探求すべきである。
関連論文リスト
- Explanations in Everyday Software Systems: Towards a Taxonomy for Explainability Needs [1.4503034354870523]
参加者84名を対象にオンライン調査を行った。
調査回答から315の説明可能性要件を特定し,分類した。
本研究の主な貢献は2つある。
論文 参考訳(メタデータ) (2024-04-25T14:34:10Z) - How are Prompts Different in Terms of Sensitivity? [50.67313477651395]
本稿では,関数の感度に基づく包括的即時解析を提案する。
出力に対する入力トークンの関連性に異なるプロンプトがどう影響するかを実証的に示すために、勾配に基づく唾液度スコアを使用する。
本稿では, 感度推定をペナルティ項として組み込んだ感度認識復号法を標準グリーディ復号法で導入する。
論文 参考訳(メタデータ) (2023-11-13T10:52:01Z) - Reason to explain: Interactive contrastive explanations (REASONX) [5.156484100374058]
制約論理プログラミング(CLP)に基づく説明ツールREASONXについて述べる。
REASONXは、背景知識によって拡張できる対話的な対照的な説明を提供する。
実例と論証的決定ルールを計算し、最も近い論証的な例を出力する。
論文 参考訳(メタデータ) (2023-05-29T15:13:46Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Textual Explanations and Critiques in Recommendation Systems [8.406549970145846]
論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
論文 参考訳(メタデータ) (2022-05-15T11:59:23Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explainability in Music Recommender Systems [69.0506502017444]
音楽レコメンダシステム(MRS)の文脈における説明可能性について論じる。
MRSは非常に複雑で、推奨精度に最適化されることが多い。
本稿では、MSSに説明可能性コンポーネントを組み込む方法と、どのようなフォーム説明を提供するかを示す。
論文 参考訳(メタデータ) (2022-01-25T18:32:11Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。