論文の概要: What Did My Car Say? Impact of Autonomous Vehicle Explanation Errors and Driving Context On Comfort, Reliance, Satisfaction, and Driving Confidence
- arxiv url: http://arxiv.org/abs/2409.05731v2
- Date: Tue, 10 Sep 2024 16:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 12:24:07.277953
- Title: What Did My Car Say? Impact of Autonomous Vehicle Explanation Errors and Driving Context On Comfort, Reliance, Satisfaction, and Driving Confidence
- Title(参考訳): 私の車は何を言ったか? 自動運転車の説明エラーと運転状況が快適さ、信頼性、満足感、運転信頼に及ぼす影響
- Authors: Robert Kaufman, Aaron Broukhim, David Kirsh, Nadir Weibel,
- Abstract要約: 自動走行車(AV)の説明ミスが、AVに依存する乗客の快適さにどのように影響するかを検証した。
同一の運転にもかかわらず、説明ミスによりAVの運転能力の評価は低下した。
事前の信頼と専門知識は、成果評価に肯定的な関連があった。
- 参考スコア(独自算出の注目度): 7.623776951753322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explanations for autonomous vehicle (AV) decisions may build trust, however, explanations can contain errors. In a simulated driving study (n = 232), we tested how AV explanation errors, driving context characteristics (perceived harm and driving difficulty), and personal traits (prior trust and expertise) affected a passenger's comfort in relying on an AV, preference for control, confidence in the AV's ability, and explanation satisfaction. Errors negatively affected all outcomes. Surprisingly, despite identical driving, explanation errors reduced ratings of the AV's driving ability. Severity and potential harm amplified the negative impact of errors. Contextual harm and driving difficulty directly impacted outcome ratings and influenced the relationship between errors and outcomes. Prior trust and expertise were positively associated with outcome ratings. Results emphasize the need for accurate, contextually adaptive, and personalized AV explanations to foster trust, reliance, satisfaction, and confidence. We conclude with design, research, and deployment recommendations for trustworthy AV explanation systems.
- Abstract(参考訳): 自動運転車(AV)の判断に関する説明は信頼を築けるかもしれないが、説明には誤りが含まれる可能性がある。
シミュレーション運転研究(n = 232)では,AVの誤り,運転状況の特徴(害や運転困難を知覚する),個人特性(事前信頼と専門知識)が,AVに依存する乗客の快適さ,制御の好み,AV能力に対する信頼感,説明満足度にどのように影響するかを検証した。
エラーはすべての結果に悪影響を及ぼした。
意外なことに、同じ運転にもかかわらず、説明ミスによりAVの運転能力の評価は低下した。
重大さと潜在的な害は、エラーの負の影響を増幅した。
文脈的危害と運転困難は結果評価に直接影響を与え、エラーと結果の関係に影響を及ぼした。
事前の信頼と専門知識は、成果評価に肯定的な関連があった。
その結果、信頼、信頼、満足、信頼を育むために、正確で、文脈的に適応し、パーソナライズされたAV説明の必要性を強調した。
我々は、信頼できるAV説明システムの設計、研究、展開の勧告を締めくくる。
関連論文リスト
- Predicting Trust In Autonomous Vehicles: Modeling Young Adult Psychosocial Traits, Risk-Benefit Attitudes, And Driving Factors With Machine Learning [7.106124530294562]
低信頼は、自律走行車(AV)の導入にとって重要な障壁である。
私たちは機械学習を使って、若い成人の信頼に寄与する最も重要な要因を理解します。
論文 参考訳(メタデータ) (2024-09-13T16:52:24Z) - A Transparency Paradox? Investigating the Impact of Explanation Specificity and Autonomous Vehicle Perceptual Inaccuracies on Passengers [14.394590436638232]
本研究は,自律運転における説明特異性の異なるレベルを介する透明性の効果について検討した。
具体的には、異なるタイプの説明が乗客の安全、不安、車両の制御意欲にどのように影響するかに焦点を当てた。
その結果、車両の認識システムに最小限の誤差がある場合、乗客は特定の説明でより安全であると感じ、一方、認識エラーを隠した抽象的な説明は安全性の感覚を低下させることがわかった。
論文 参考訳(メタデータ) (2024-08-16T14:59:00Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Did You Mean...? Confidence-based Trade-offs in Semantic Parsing [52.28988386710333]
タスク指向の構文解析において、キャリブレーションモデルが共通のトレードオフのバランスを取るのにどのように役立つかを示す。
次に、信頼性スコアがユーザビリティと安全性のトレードオフを最適化する上で、どのように役立つかを検証します。
論文 参考訳(メタデータ) (2023-03-29T17:07:26Z) - From the Head or the Heart? An Experimental Design on the Impact of
Explanation on Cognitive and Affective Trust [13.274877222689168]
本研究では,認知的信頼と感情的信頼の両方に対する説明の有効性について検討した。
これらの結果は、AV信頼を促進するために、AV説明を設計する上で非常に重要であると期待する。
論文 参考訳(メタデータ) (2021-10-07T13:15:34Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explanations in Autonomous Driving: A Survey [7.353589916907923]
我々は、説明可能な自動運転における既存の作業の包括的調査を行う。
我々は、AVの開発、使用、規制に関わる様々な利害関係者を特定し、分類する。
論文 参考訳(メタデータ) (2021-03-09T00:31:30Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。