論文の概要: Explanations in Everyday Software Systems: Towards a Taxonomy for Explainability Needs
- arxiv url: http://arxiv.org/abs/2404.16644v1
- Date: Thu, 25 Apr 2024 14:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 13:30:22.127240
- Title: Explanations in Everyday Software Systems: Towards a Taxonomy for Explainability Needs
- Title(参考訳): 日々のソフトウェアシステムにおける説明:説明可能性の必要性の分類を目指して
- Authors: Jakob Droste, Hannah Deters, Martin Obaidi, Kurt Schneider,
- Abstract要約: 参加者84名を対象にオンライン調査を行った。
調査回答から315の説明可能性要件を特定し,分類した。
本研究の主な貢献は2つある。
- 参考スコア(独自算出の注目度): 1.4503034354870523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern software systems are becoming increasingly complex and opaque. The integration of explanations within software has shown the potential to address this opacity and can make the system more understandable to end-users. As a result, explainability has gained much traction as a non-functional requirement of complex systems. Understanding what type of system requires what types of explanations is necessary to facilitate the inclusion of explainability in early software design processes. In order to specify explainability requirements, an explainability taxonomy that applies to a variety of different software types is needed. In this paper, we present the results of an online survey with 84 participants. We asked the participants to state their questions and confusions concerning their three most recently used software systems and elicited both explicit and implicit explainability needs from their statements. These needs were coded by three researchers. In total, we identified and classified 315 explainability needs from the survey answers. Drawing from a large pool of explainability needs and our coding procedure, we present two major contributions of this work: 1) a taxonomy for explainability needs in everyday software systems and 2) an overview of how the need for explanations differs between different types of software systems.
- Abstract(参考訳): 現代のソフトウェアシステムはますます複雑で不透明になっている。
ソフトウェア内での説明の統合は、この不透明さに対処する可能性を示し、システムをエンドユーザにとってより理解しやすいものにする。
その結果、複雑なシステムの非機能要件として説明可能性が大きく向上した。
初期のソフトウェア設計プロセスに説明可能性を含めるのに、どんなタイプのシステムが必要なのかを理解する。
説明可能性要件を特定するには、様々な種類のソフトウェアに適用する説明可能性分類が必要である。
本稿では,84名の参加者を対象としたオンライン調査の結果を報告する。
我々は参加者に、最近使用した3つのソフトウェアシステムに関する質問と混乱を述べてもらい、明示的かつ暗黙的な説明可能性の必要性を彼らの声明から引き合いに出した。
これらの要求は3人の研究者によってコーディングされた。
質問紙調査の結果から,315個の説明可能性の必要性を抽出し,分類した。
説明可能性のニーズとコーディング手順の大きなプールから引き抜いて、本研究の主な貢献を2つ提示する。
1)日々のソフトウェアシステムにおける説明可能性に関する分類
2) ソフトウェアシステムの種類によって説明の必要性がどう違うかの概要。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Explanation Needs in App Reviews: Taxonomy and Automated Detection [2.545133021829296]
アプリレビューでユーザによって表現される説明の必要性について検討する。
8つのアプリから1,730のアプリレビューを手作業でコーディングし、説明要求の分類を導きました。
ベスト分類器は、4つの異なるアプリの486種類の説明の必要性を認識し、重み付けされたFスコアは86%である。
論文 参考訳(メタデータ) (2023-07-10T06:48:01Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Brain-inspired Search Engine Assistant based on Knowledge Graph [53.89429854626489]
developerbotは脳にインスパイアされた、knowledge graphの名前の検索エンジンアシスタントだ。
複雑なマルチ制約クエリを複数の順序制約に分割することで、多層クエリグラフを構築する。
次に、制約推論プロセスを認知科学の拡散活性化モデルに触発されたサブグラフ探索プロセスとしてモデル化する。
論文 参考訳(メタデータ) (2020-12-25T06:36:11Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - A systematic review and taxonomy of explanations in decision support and
recommender systems [13.224071661974596]
我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
論文 参考訳(メタデータ) (2020-06-15T18:19:20Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。