論文の概要: A Transparency Paradox? Investigating the Impact of Explanation Specificity and Autonomous Vehicle Perceptual Inaccuracies on Passengers
- arxiv url: http://arxiv.org/abs/2408.08785v1
- Date: Fri, 16 Aug 2024 14:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 15:03:59.361381
- Title: A Transparency Paradox? Investigating the Impact of Explanation Specificity and Autonomous Vehicle Perceptual Inaccuracies on Passengers
- Title(参考訳): 透明性パラドックス : 説明特異性と自動運転車の知覚不正確性が乗客に与える影響について
- Authors: Daniel Omeiza, Raunak Bhattacharyya, Marina Jirotka, Nick Hawes, Lars Kunze,
- Abstract要約: 本研究は,自律運転における説明特異性の異なるレベルを介する透明性の効果について検討した。
具体的には、異なるタイプの説明が乗客の安全、不安、車両の制御意欲にどのように影響するかに焦点を当てた。
その結果、車両の認識システムに最小限の誤差がある場合、乗客は特定の説明でより安全であると感じ、一方、認識エラーを隠した抽象的な説明は安全性の感覚を低下させることがわかった。
- 参考スコア(独自算出の注目度): 14.394590436638232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparency in automated systems could be afforded through the provision of intelligible explanations. While transparency is desirable, might it lead to catastrophic outcomes (such as anxiety), that could outweigh its benefits? It's quite unclear how the specificity of explanations (level of transparency) influences recipients, especially in autonomous driving (AD). In this work, we examined the effects of transparency mediated through varying levels of explanation specificity in AD. We first extended a data-driven explainer model by adding a rule-based option for explanation generation in AD, and then conducted a within-subject lab study with 39 participants in an immersive driving simulator to study the effect of the resulting explanations. Specifically, our investigation focused on: (1) how different types of explanations (specific vs. abstract) affect passengers' perceived safety, anxiety, and willingness to take control of the vehicle when the vehicle perception system makes erroneous predictions; and (2) the relationship between passengers' behavioural cues and their feelings during the autonomous drives. Our findings showed that passengers felt safer with specific explanations when the vehicle's perception system had minimal errors, while abstract explanations that hid perception errors led to lower feelings of safety. Anxiety levels increased when specific explanations revealed perception system errors (high transparency). We found no significant link between passengers' visual patterns and their anxiety levels. Our study suggests that passengers prefer clear and specific explanations (high transparency) when they originate from autonomous vehicles (AVs) with optimal perceptual accuracy.
- Abstract(参考訳): 自動システムの透明性は、理解不能な説明を提供することによって得られる。
透明性は望ましいが、(不安など)破滅的な結果をもたらすかもしれない。
説明の特異性(透明性のレベル)が、特に自律運転(AD)において、受信者にどのように影響するかは、かなり不明確です。
本研究は,ADにおける説明特異性のレベルによって媒介される透明性の効果について検討した。
まず、ADに説明生成のためのルールベースのオプションを追加することで、データ駆動の説明モデルを拡張し、次いで、39人の被験者とともに、没入型運転シミュレーターで実験室内で実験を行い、結果の説明の効果について検討した。
具体的には,(1)車両の認識システムが誤った予測を行う場合に,車両の安全,不安,意思にどう影響するか,(2)自律運転中の乗客の行動習慣と感情との関係について検討した。
その結果、車両の認識システムに最小限の誤差がある場合、乗客は特定の説明でより安全であると感じ、一方、認識エラーを隠した抽象的な説明は安全性の感覚を低下させることがわかった。
特定の説明が知覚システムエラー(高い透明性)を明らかにすると不安レベルが上昇した。
乗客の視覚パターンと不安レベルとの間に有意な相関は認められなかった。
本研究は,自律走行車(AV)が最適知覚精度を持つ場合,乗客は明確で特異な説明(高い透明性)を好むことを示唆する。
関連論文リスト
- What Did My Car Say? Impact of Autonomous Vehicle Explanation Errors and Driving Context On Comfort, Reliance, Satisfaction, and Driving Confidence [7.623776951753322]
自動走行車(AV)の説明ミスが、AVに依存する乗客の快適さにどのように影響するかを検証した。
同一の運転にもかかわらず、説明ミスによりAVの運転能力の評価は低下した。
事前の信頼と専門知識は、成果評価に肯定的な関連があった。
論文 参考訳(メタデータ) (2024-09-09T15:41:53Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - Studying the Impact of Semi-Cooperative Drivers on Overall Highway Flow [76.38515853201116]
半協調行動は、人間ドライバーの本質的な性質であり、自律運転には考慮すべきである。
新たな自律型プランナーは、社会的に準拠した軌道を生成するために、人間のドライバーの社会的価値指向(SVO)を考慮することができる。
エージェントが反復的最適応答のゲーム理論バージョンをデプロイする暗黙的な半協調運転について検討する。
論文 参考訳(メタデータ) (2023-04-23T16:01:36Z) - From Spoken Thoughts to Automated Driving Commentary: Predicting and
Explaining Intelligent Vehicles' Actions [10.557942353553859]
コメント運転では、ドライバーは観察、評価、意図を口頭で話す。
彼らの考えを語ることで、学習と熟練したドライバーの両方が、自分たちの環境をよりよく理解し、認識できるようになります。
インテリジェントな車両の文脈では、自動運転解説は運転行動についての理解に富んだ説明を提供することができる。
論文 参考訳(メタデータ) (2022-04-19T19:39:13Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Giving Commands to a Self-Driving Car: How to Deal with Uncertain
Situations? [21.19657707748505]
本稿では、コマンドが与えられたときの不確実な状況を検出し、その原因となる視覚オブジェクトを見つけるモデルを提案する。
車両が人間のような方法で物体を説明できたら、乗客は車の能力にもっと自信を持てるだろう、と我々は主張する。
論文 参考訳(メタデータ) (2021-06-08T10:21:11Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。