論文の概要: Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research
- arxiv url: http://arxiv.org/abs/2312.12119v1
- Date: Tue, 19 Dec 2023 12:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:40:22.621041
- Title: Mindful Explanations: Prevalence and Impact of Mind Attribution in XAI
Research
- Title(参考訳): マインドフルな説明:XAI研究におけるマインドアトリビューションの状況と影響
- Authors: Susanne Hindennach, Lei Shi, Filip Mileti\'c and Andreas Bulling
- Abstract要約: 我々はセマンティック・スカラー・オープン・リサーチ・コーポレーション(S2ORC)による3,533個の説明可能なAI(XAI)研究論文を分析した。
我々は、比喩的(例えば「学習する」または「予測する」)、意識(例えば「考える」)、そして(3)エージェンシーの3つの支配的な精神属性を識別する。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
AI専門家の関与を考慮すると、非貢献者に対するAI責任の格付けが低下する
- 参考スコア(独自算出の注目度): 10.705827568946606
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: When users perceive AI systems as mindful, independent agents, they hold them
responsible instead of the AI experts who created and designed these systems.
So far, it has not been studied whether explanations support this shift in
responsibility through the use of mind-attributing verbs like "to think". To
better understand the prevalence of mind-attributing explanations we analyse AI
explanations in 3,533 explainable AI (XAI) research articles from the Semantic
Scholar Open Research Corpus (S2ORC). Using methods from semantic shift
detection, we identify three dominant types of mind attribution: (1)
metaphorical (e.g. "to learn" or "to predict"), (2) awareness (e.g. "to
consider"), and (3) agency (e.g. "to make decisions"). We then analyse the
impact of mind-attributing explanations on awareness and responsibility in a
vignette-based experiment with 199 participants. We find that participants who
were given a mind-attributing explanation were more likely to rate the AI
system as aware of the harm it caused. Moreover, the mind-attributing
explanation had a responsibility-concealing effect: Considering the AI experts'
involvement lead to reduced ratings of AI responsibility for participants who
were given a non-mind-attributing or no explanation. In contrast, participants
who read the mind-attributing explanation still held the AI system responsible
despite considering the AI experts' involvement. Taken together, our work
underlines the need to carefully phrase explanations about AI systems in
scientific writing to reduce mind attribution and clearly communicate human
responsibility.
- Abstract(参考訳): ユーザがAIシステムをマインドフルで独立したエージェントとして認識すると、これらのシステムを開発、設計したAI専門家の代わりに責任を負う。
これまでのところ、「考える」のような心的帰属動詞を用いることで、説明が責任の変化を支持するかどうかは研究されていない。
S2ORC(Semantic Scholar Open Research Corpus)の3,533の説明可能なAI(XAI)研究論文において、マインドアトリビュートの説明の妥当性をよりよく理解するために、AIの説明を分析した。
セマンティックシフト検出の手法を用いて、(1)比喩的(例えば「学習する」または「予測する」)、(2)意識(例えば「考える」)、(3)エージェンシー(例えば「決定する」)の3つの主要な属性を同定する。
次に,199名の参加者によるヴィグネット実験において,マインド属性説明が認知と責任に与える影響を分析した。
その結果、マインドアトリビュートした説明を受けた参加者は、AIシステムが引き起こした損害を認識できる確率が高いことがわかった。
さらに、マインド・アトリビュートの説明は、責任を負う効果があった。AI専門家の関与を考慮すると、非マインド・アトリビュートや説明を与えられた参加者に対するAI責任の評価が低下する。
対照的に、マインドアトリビュートの説明を読む参加者は、AI専門家の関与を考慮しても、依然としてAIシステムの責任を負っていた。
私たちの研究は、科学的執筆におけるAIシステムの説明を慎重に説明し、マインドアトリビューションを減らし、人間の責任を明確に伝達する必要性を強調します。
関連論文リスト
- Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Playing the Blame Game with Robots [0.0]
私たちは、人々が無謀な文脈でAIシステムに道徳的責任を負うことを喜んでいることに気付きました。
AIシステムの計算技術が高度になればなるほど、非難は人間のユーザからAIシステムへとシフトする。
論文 参考訳(メタデータ) (2021-02-08T20:53:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。