論文の概要: Explaining Classifications to Non Experts: An XAI User Study of Post Hoc
Explanations for a Classifier When People Lack Expertise
- arxiv url: http://arxiv.org/abs/2212.09342v1
- Date: Mon, 19 Dec 2022 10:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:15:42.629395
- Title: Explaining Classifications to Non Experts: An XAI User Study of Post Hoc
Explanations for a Classifier When People Lack Expertise
- Title(参考訳): 非専門家に分類を説明する: 専門家不足時の分類者のためのポストホック説明のXAIユーザスタディ
- Authors: Courtney Ford and Mark T Keane
- Abstract要約: 本稿では、ドメイン内の人々の専門知識が、ポストホックな説明に対する理解にどのように影響するかに関する、新しいユーザスタディを報告する。
その結果, 正誤分類の説明に対する理解は, 様々な次元において劇的に変化することが示唆された。
- 参考スコア(独自算出の注目度): 7.881140597011731
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Very few eXplainable AI (XAI) studies consider how users understanding of
explanations might change depending on whether they know more or less about the
to be explained domain (i.e., whether they differ in their expertise). Yet,
expertise is a critical facet of most high stakes, human decision making (e.g.,
understanding how a trainee doctor differs from an experienced consultant).
Accordingly, this paper reports a novel, user study (N=96) on how peoples
expertise in a domain affects their understanding of post-hoc explanations by
example for a deep-learning, black box classifier. The results show that
peoples understanding of explanations for correct and incorrect classifications
changes dramatically, on several dimensions (e.g., response times, perceptions
of correctness and helpfulness), when the image-based domain considered is
familiar (i.e., MNIST) as opposed to unfamiliar (i.e., Kannada MNIST). The
wider implications of these new findings for XAI strategies are discussed.
- Abstract(参考訳): 非常に少数のeXplainable AI(XAI)研究は、ユーザが説明すべきドメインについて多かれ少なかれ知っているかどうか(専門知識が異なるかどうか)に応じて、説明に対する理解がどのように変化するかを考察している。
しかし、専門知識は、人間の意思決定(例えば、研修医が経験豊富なコンサルタントとどのように違うかを理解すること)において、ほとんどの高い利害関係の重要な側面である。
そこで本論文では,ドメイン内の人々の専門知識が,例えば深層学習のブラックボックス分類器によるポストホック説明の理解にどのように影響するかに関する,ユーザスタディ(N=96)を報告する。
その結果、画像ベースドメインが慣れ親しんだ(MNIST)場合、複数の次元(応答時間、正当性、有用性の知覚など)において、不慣れな(MNIST)とは対照的に、正誤分類の説明に対する理解が劇的に変化することが明らかとなった。
これらの新たな発見がXAI戦略に与える影響について論じる。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Confident Teacher, Confident Student? A Novel User Study Design for Investigating the Didactic Potential of Explanations and their Impact on Uncertainty [1.0855602842179624]
説明可能な人工知能(XAI)を用いた視覚課題における説明が人的パフォーマンスに与える影響について検討する。
アノテーションの精度が向上し、AIアシストに対する不確実性が低下していることがわかりました。
ユーザーは説明を示すと、モデルの予測をより頻繁に再現する傾向がある。
論文 参考訳(メタデータ) (2024-09-10T12:59:50Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching [4.864819846886143]
説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
ベイジアン・インストラクション(ベイジアン・インストラクション)を通したヒューマン・インストラクタのモデル化について提案する。
論文 参考訳(メタデータ) (2021-02-07T21:23:24Z) - Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study [0.6875312133832077]
参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
論文 参考訳(メタデータ) (2021-01-05T09:34:38Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。