論文の概要: Why Don't You Do Something About It? Outlining Connections between AI
Explanations and User Actions
- arxiv url: http://arxiv.org/abs/2305.06297v1
- Date: Wed, 10 May 2023 16:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:15:31.690306
- Title: Why Don't You Do Something About It? Outlining Connections between AI
Explanations and User Actions
- Title(参考訳): なぜそんなことをしないのか?
AI説明とユーザ行動の関連性の概要
- Authors: Gennie Mansi, Mark Riedl
- Abstract要約: 行動の中心性にもかかわらず、説明はしばしば技術的側面に基づいて組織化され、評価される。
評価における行動の中心化における重要な第一歩は、XAIコミュニティがまとめて、説明ができる情報の範囲として認識していることを理解することである。
- 参考スコア(独自算出の注目度): 9.683269364766426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A core assumption of explainable AI systems is that explanations change what
users know, thereby enabling them to act within their complex socio-technical
environments. Despite the centrality of action, explanations are often
organized and evaluated based on technical aspects. Prior work varies widely in
the connections it traces between information provided in explanations and
resulting user actions. An important first step in centering action in
evaluations is understanding what the XAI community collectively recognizes as
the range of information that explanations can present and what actions are
associated with them. In this paper, we present our framework, which maps prior
work on information presented in explanations and user action, and we discuss
the gaps we uncovered about the information presented to users.
- Abstract(参考訳): 説明可能なAIシステムの中核的な前提は、説明がユーザーの知っていることを変え、複雑な社会技術的環境の中で行動できるようにすることである。
行動の中心性にもかかわらず、説明はしばしば技術的側面に基づいて整理され、評価される。
以前の作業は、説明で提供された情報と結果のユーザアクションの間の接続で大きく異なります。
評価における行動の中心化における重要な第一歩は、XAIコミュニティが総合的に認識する情報の範囲と、それらに関連する行動を理解することである。
本稿では,説明やユーザ行動で提示される情報について,先行研究を地図化する枠組みを提案し,ユーザに対して提示される情報に関するギャップについて考察する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - May I Ask a Follow-up Question? Understanding the Benefits of
Conversations in Neural Network Explainability [19.1651512576945]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Behaviour Trees for Conversational Explanation Experiences [1.5257668132713955]
本稿では、ユーザがXAIシステムと対話して、説明戦略によって満たされた複数の説明要求を満たす方法に焦点を当てる。
対話型説明体験を対話モデルとしてモデル化する。
実世界のユースケースを用いた評価では、BTには、モデリングや説明経験の取得に自然に寄与する多くの特性がある。
論文 参考訳(メタデータ) (2022-11-11T18:39:38Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。