論文の概要: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior
- arxiv url: http://arxiv.org/abs/2403.08828v1
- Date: Mon, 11 Mar 2024 11:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 00:51:27.951846
- Title: People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior
- Title(参考訳): 人々は行動を説明するとき、自動運転車の目的に貢献する
- Authors: Balint Gyevnar, Stephanie Droop, Tadeg Quillien,
- Abstract要約: 我々は、特にテレロジーに関して、認知的説明科学から関連する文献をレビューする。
自動運転車の動作に関する説明を人々がどのように生成するかに関する実証データを報告する。
我々は,Human Explanations for Autonomous Driving Decisions (HEADD)と呼ばれる,注釈付きビデオ状況のデータセットを公開している。
- 参考スコア(独自算出の注目度): 0.4213495442786701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A hallmark of a good XAI system is explanations that users can understand and act on. In many cases, this requires a system to offer causal or counterfactual explanations that are intelligible. Cognitive science can help us understand what kinds of explanations users might expect, and in which format to frame these explanations. We briefly review relevant literature from the cognitive science of explanation, particularly as it concerns teleology, the tendency to explain a decision in terms of the purpose it was meant to achieve. We then report empirical data on how people generate explanations for the behavior of autonomous vehicles, and how they evaluate these explanations. In a first survey, participants (n=54) were shown videos of a road scene and asked to generate either mechanistic, counterfactual, or teleological verbal explanations for a vehicle's actions. In the second survey, a different set of participants (n=356) rated these explanations along various metrics including quality, trustworthiness, and how much each explanatory mode was emphasized in the explanation. Participants deemed mechanistic and teleological explanations as significantly higher quality than counterfactual explanations. In addition, perceived teleology was the best predictor of perceived quality and trustworthiness. Neither perceived teleology nor quality ratings were affected by whether the car whose actions were being explained was an autonomous vehicle or was being driven by a person. The results show people use and value teleological concepts to evaluate information about both other people and autonomous vehicles, indicating they find the 'intentional stance' a convenient abstraction. We make our dataset of annotated video situations with explanations, called Human Explanations for Autonomous Driving Decisions (HEADD), publicly available, which we hope will prompt further research.
- Abstract(参考訳): 優れたXAIシステムの目玉は、ユーザが理解し行動できる説明である。
多くの場合、これは理解不能な因果的または反事実的説明を提供するシステムを必要とする。
認知科学は、ユーザーがどのような説明を期待するか、どのフォーマットでこれらの説明をフレーム化するかを理解するのに役立ちます。
本稿では,特にテレロジーに関する認知科学から,その目的の観点から意思決定を説明する傾向について,関連文献を簡潔にレビューする。
次に、自動運転車の動作に関する説明を生成する方法と、これらの説明を評価する方法について、実証データを報告する。
最初の調査では、参加者(n=54)が道路シーンのビデオを見せられ、車両の行動に関する機械的、反事実的、遠隔的言葉の説明を生成するよう依頼された。
第2の調査では、異なる参加者(n=356)がこれらの説明を、品質、信頼性、説明モードがどの程度強調されたかなど、様々な指標に沿って評価した。
参加者は、機械的、遠隔的説明は反事実的説明よりもはるかに高い品質であるとみなした。
さらに、テレロジーは、品質と信頼性を知覚する最良の予測者であった。
テレロジーや品質評価は、説明されている車両が自動運転車であるか、または人が運転しているかによっても影響を受けなかった。
その結果,他者と自律走行車の両方の情報をテレロジカルな概念を用いて評価し,その「意図的スタンス」が便利な抽象化であることが示唆された。
我々は、注釈付きビデオ状況のデータセットを、Human Explanations for Autonomous Driving Decisions (HEADD)と呼ばれる説明とともに公開し、さらなる研究を期待する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - EgoTaskQA: Understanding Human Tasks in Egocentric Videos [89.9573084127155]
EgoTaskQAベンチマークは、現実世界のエゴセントリックなビデオに対する質問回答を通じて、タスク理解の重要な次元を提供する。
我々は,(1)行動依存と効果,(2)意図と目標,(3)エージェントの他者に対する信念の理解を念頭に設計する。
我々は、我々のベンチマークで最先端のビデオ推論モデルを評価し、複雑なゴール指向のエゴセントリックなビデオを理解する上で、人間の間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2022-10-08T05:49:05Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。