論文の概要: The Who in Explainable AI: How AI Background Shapes Perceptions of AI
Explanations
- arxiv url: http://arxiv.org/abs/2107.13509v1
- Date: Wed, 28 Jul 2021 17:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 13:51:28.150378
- Title: The Who in Explainable AI: How AI Background Shapes Perceptions of AI
Explanations
- Title(参考訳): 説明可能なAI:AIの背景がAI説明の知覚を形作る方法
- Authors: Upol Ehsan, Samir Passi, Q. Vera Liao, Larry Chan, I-Hsiang Lee,
Michael Muller, Mark O. Riedl
- Abstract要約: 我々は、AIの背景と背景のない2つの異なるグループの売春婦が、異なるタイプのAI説明を知覚する方法について、混合方法論による研究を行う。
私たちは、信頼、知性、理解可能性、第二のチャンス、友好性の5つの側面に沿って、知覚が何であるかを定量的に共有します。
- 参考スコア(独自算出の注目度): 14.259207750786285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability of AI systems is critical for users to take informed actions
and hold systems accountable. While "opening the opaque box" is important,
understanding who opens the box can govern if the Human-AI interaction is
effective. In this paper, we conduct a mixed-methods study of how two different
groups of whos--people with and without a background in AI--perceive different
types of AI explanations. These groups were chosen to look at how disparities
in AI backgrounds can exacerbate the creator-consumer gap. We quantitatively
share what the perceptions are along five dimensions: confidence, intelligence,
understandability, second chance, and friendliness. Qualitatively, we highlight
how the AI background influences each group's interpretations and elucidate why
the differences might exist through the lenses of appropriation and cognitive
heuristics. We find that (1) both groups had unwarranted faith in numbers, to
different extents and for different reasons, (2) each group found explanatory
values in different explanations that went beyond the usage we designed them
for, and (3) each group had different requirements of what counts as humanlike
explanations. Using our findings, we discuss potential negative consequences
such as harmful manipulation of user trust and propose design interventions to
mitigate them. By bringing conscious awareness to how and why AI backgrounds
shape perceptions of potential creators and consumers in XAI, our work takes a
formative step in advancing a pluralistic Human-centered Explainable AI
discourse.
- Abstract(参考訳): AIシステムの説明責任は、ユーザがインフォメーションアクションを受け取り、システムに責任を負うために重要である。
不透明な箱を開けること」は重要であるが、人間とAIの相互作用が効果的であれば、誰が箱を開けるかを理解することが支配できる。
本稿では,AIの背景と背景を持たない2種類の売春婦集団が,異なるタイプのAI説明を知覚する方法について,混合手法による研究を行う。
これらのグループは、AIの背景における格差がクリエーターと消費者のギャップをいかに悪化させるかを調べるために選ばれた。
私たちは、信頼、知性、理解可能性、第二のチャンス、友好性の5つの側面に沿って、知覚が何であるかを定量的に共有します。
定性的には、aiの背景が各グループの解釈にどのように影響するかを強調し、なぜ差が存在するのかを、評価と認知的ヒューリスティックのレンズを通して解明する。
その結果,(1) 両グループとも, 異なる程度, 異なる理由から, それぞれのグループが, 設計した用法を超える説明的価値を見出したこと, (3) それぞれのグループは, 人的説明として数えられるものに対して, 異なる要求を抱いていたこと, が判明した。
本研究は,ユーザ信頼の有害な操作などの潜在的悪影響を考察し,それらを軽減するための設計介入を提案する。
AIの背景が、XAIの潜在的なクリエーターや消費者の認識を形成する理由と理由を意識的に認識することで、我々の研究は、多元的な人間中心の説明可能なAI談話を進めるためのフォーマティブな一歩を踏み出した。
関連論文リスト
- Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。