論文の概要: Can counterfactual explanations of AI systems' predictions skew lay
users' causal intuitions about the world? If so, can we correct for that?
- arxiv url: http://arxiv.org/abs/2205.06241v1
- Date: Thu, 12 May 2022 17:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 15:22:36.351197
- Title: Can counterfactual explanations of AI systems' predictions skew lay
users' causal intuitions about the world? If so, can we correct for that?
- Title(参考訳): aiシステムの予測の反事実的説明は、ユーザの世界に対する直観を歪めているのだろうか?
もしそうなら、それを修正できますか。
- Authors: Marko Tesic, Ulrike Hahn
- Abstract要約: 説明可能なAIにおける説明可能性のモードの1つとして、対実的(CF)説明が採用されている。
そこで本研究では,CFの説明が現実世界に対する人々の因果的信念に及ぼす影響を調査する2つの実験について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterfactual (CF) explanations have been employed as one of the modes of
explainability in explainable AI-both to increase the transparency of AI
systems and to provide recourse. Cognitive science and psychology, however,
have pointed out that people regularly use CFs to express causal relationships.
Most AI systems are only able to capture associations or correlations in data
so interpreting them as casual would not be justified. In this paper, we
present two experiment (total N = 364) exploring the effects of CF explanations
of AI system's predictions on lay people's causal beliefs about the real world.
In Experiment 1 we found that providing CF explanations of an AI system's
predictions does indeed (unjustifiably) affect people's causal beliefs
regarding factors/features the AI uses and that people are more likely to view
them as causal factors in the real world. Inspired by the literature on
misinformation and health warning messaging, Experiment 2 tested whether we can
correct for the unjustified change in causal beliefs. We found that pointing
out that AI systems capture correlations and not necessarily causal
relationships can attenuate the effects of CF explanations on people's causal
beliefs.
- Abstract(参考訳): 対実的(CF)説明は、AIシステムの透明性を高め、リコースを提供するために、説明可能なAI-両方の説明可能性の1つとして採用されている。
しかし認知科学と心理学では、人々は定期的にCFを使って因果関係を表現している。
ほとんどのAIシステムは、データの関連性や相関を捉えるだけで、それらをカジュアルと解釈することは正当化されない。
本稿では,AIシステムの予測のCF説明が現実世界に対する人々の因果的信念に及ぼす影響を調査する2つの実験(Total N = 364)を提案する。
実験1では、aiシステムの予測をcfで説明することで、aiが使用する要因や特徴に関する人々の因果信念に(不当に)影響を与え、現実の世界で因果要因と見なされる可能性が高まることが分かりました。
誤報や健康警告メッセージに関する文献に触発された実験2では、因果的信念の不正な変化を正せるかどうかを検証した。
我々は、AIシステムが相関を捉え、必ずしも因果関係を捉えていないことを指摘し、CFの説明が人々の因果信念に与える影響を減らせることを指摘した。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation [29.022316418575866]
本研究は,疑似AIによる説明が個人の信念に及ぼす影響について検討した。
以上の結果から,認知的リフレクションやAIに対する信頼といった個人的要因が,必ずしも個人をこれらの影響から保護するとは限らないことが示唆された。
このことは論理的推論と批判的思考スキルを教え、論理的に無効な議論を特定することの重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-07-31T05:39:07Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making [38.71592583606443]
真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
論文 参考訳(メタデータ) (2022-09-23T20:09:03Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Does Explainable Artificial Intelligence Improve Human Decision-Making? [17.18994675838646]
我々は、AI(制御)を使わずに客観的な人間の意思決定精度を、AI予測(説明なし)とAI予測(説明なし)とを比較して評価する。
あらゆる種類のAI予測は、ユーザの判断精度を改善する傾向がありますが、説明可能なAIが有意義な影響を与えるという決定的な証拠はありません。
我々の結果は、少なくともいくつかの状況において、説明可能なAIが提供する「なぜ」情報は、ユーザの意思決定を促進することができないことを示唆している。
論文 参考訳(メタデータ) (2020-06-19T15:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。