論文の概要: The Who in Explainable AI: How AI Background Shapes Perceptions of AI
Explanations
- arxiv url: http://arxiv.org/abs/2107.13509v1
- Date: Wed, 28 Jul 2021 17:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 13:51:28.150378
- Title: The Who in Explainable AI: How AI Background Shapes Perceptions of AI
Explanations
- Title(参考訳): 説明可能なAI:AIの背景がAI説明の知覚を形作る方法
- Authors: Upol Ehsan, Samir Passi, Q. Vera Liao, Larry Chan, I-Hsiang Lee,
Michael Muller, Mark O. Riedl
- Abstract要約: 我々は、AIの背景と背景のない2つの異なるグループの売春婦が、異なるタイプのAI説明を知覚する方法について、混合方法論による研究を行う。
私たちは、信頼、知性、理解可能性、第二のチャンス、友好性の5つの側面に沿って、知覚が何であるかを定量的に共有します。
- 参考スコア(独自算出の注目度): 14.259207750786285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability of AI systems is critical for users to take informed actions
and hold systems accountable. While "opening the opaque box" is important,
understanding who opens the box can govern if the Human-AI interaction is
effective. In this paper, we conduct a mixed-methods study of how two different
groups of whos--people with and without a background in AI--perceive different
types of AI explanations. These groups were chosen to look at how disparities
in AI backgrounds can exacerbate the creator-consumer gap. We quantitatively
share what the perceptions are along five dimensions: confidence, intelligence,
understandability, second chance, and friendliness. Qualitatively, we highlight
how the AI background influences each group's interpretations and elucidate why
the differences might exist through the lenses of appropriation and cognitive
heuristics. We find that (1) both groups had unwarranted faith in numbers, to
different extents and for different reasons, (2) each group found explanatory
values in different explanations that went beyond the usage we designed them
for, and (3) each group had different requirements of what counts as humanlike
explanations. Using our findings, we discuss potential negative consequences
such as harmful manipulation of user trust and propose design interventions to
mitigate them. By bringing conscious awareness to how and why AI backgrounds
shape perceptions of potential creators and consumers in XAI, our work takes a
formative step in advancing a pluralistic Human-centered Explainable AI
discourse.
- Abstract(参考訳): AIシステムの説明責任は、ユーザがインフォメーションアクションを受け取り、システムに責任を負うために重要である。
不透明な箱を開けること」は重要であるが、人間とAIの相互作用が効果的であれば、誰が箱を開けるかを理解することが支配できる。
本稿では,AIの背景と背景を持たない2種類の売春婦集団が,異なるタイプのAI説明を知覚する方法について,混合手法による研究を行う。
これらのグループは、AIの背景における格差がクリエーターと消費者のギャップをいかに悪化させるかを調べるために選ばれた。
私たちは、信頼、知性、理解可能性、第二のチャンス、友好性の5つの側面に沿って、知覚が何であるかを定量的に共有します。
定性的には、aiの背景が各グループの解釈にどのように影響するかを強調し、なぜ差が存在するのかを、評価と認知的ヒューリスティックのレンズを通して解明する。
その結果,(1) 両グループとも, 異なる程度, 異なる理由から, それぞれのグループが, 設計した用法を超える説明的価値を見出したこと, (3) それぞれのグループは, 人的説明として数えられるものに対して, 異なる要求を抱いていたこと, が判明した。
本研究は,ユーザ信頼の有害な操作などの潜在的悪影響を考察し,それらを軽減するための設計介入を提案する。
AIの背景が、XAIの潜在的なクリエーターや消費者の認識を形成する理由と理由を意識的に認識することで、我々の研究は、多元的な人間中心の説明可能なAI談話を進めるためのフォーマティブな一歩を踏み出した。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Don't be Fooled: The Misinformation Effect of Explanations in Human-AI Collaboration [11.824688232910193]
我々は,人間がXAIに支えられたAIによる意思決定について研究している。
その結果,誤った説明が正しいAIアドバイスに付随する場合に誤報が生じることがわかった。
この効果は、人間が欠陥のある推論戦略を推測し、タスクの実行を妨げ、手続き的知識の障害を示す。
論文 参考訳(メタデータ) (2024-09-19T14:34:20Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。