論文の概要: Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2404.07383v1
- Date: Wed, 10 Apr 2024 23:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 15:28:21.712183
- Title: Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles
- Title(参考訳): 自動車における信頼と状況認識のためのヒューマン・マシン・インタフェースへの説明の組み入れ
- Authors: Shahin Atakishiyev, Mohammad Salameh, Randy Goebel,
- Abstract要約: 自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.1636282808157254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles often make complex decisions via machine learning-based predictive models applied to collected sensor data. While this combination of methods provides a foundation for real-time actions, self-driving behavior primarily remains opaque to end users. In this sense, explainability of real-time decisions is a crucial and natural requirement for building trust in autonomous vehicles. Moreover, as autonomous vehicles still cause serious traffic accidents for various reasons, timely conveyance of upcoming hazards to road users can help improve scene understanding and prevent potential risks. Hence, there is also a need to supply autonomous vehicles with user-friendly interfaces for effective human-machine teaming. Motivated by this problem, we study the role of explainable AI and human-machine interface jointly in building trust in vehicle autonomy. We first present a broad context of the explanatory human-machine systems with the "3W1H" (what, whom, when, how) approach. Based on these findings, we present a situation awareness framework for calibrating users' trust in self-driving behavior. Finally, we perform an experiment on our framework, conduct a user study on it, and validate the empirical findings with hypothesis testing.
- Abstract(参考訳): 自動運転車は、収集されたセンサーデータに適用された機械学習ベースの予測モデルを介して複雑な決定をすることが多い。
この組み合わせはリアルタイム行動の基礎を提供するが、自動運転の動作はエンドユーザにとって不透明なままである。
この意味では、リアルタイム意思決定の説明可能性は、自動運転車の信頼性を構築する上で、不可欠かつ自然な要件である。
さらに、自動運転車は、様々な理由で深刻な交通事故を引き起こしているため、道路利用者への危険のタイムリーな搬送は、現場の理解を改善し、潜在的なリスクを防ぐのに役立つ。
そのため、人間と機械の効果的な連携のためのユーザーフレンドリーなインターフェースを備えた自動運転車の供給も必要である。
この問題に触発された我々は、自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースの役割を共同で研究する。
まず,3W1H (What, who, when, how) のアプローチにより,説明的人間機械システムの幅広い文脈を提示する。
これらの知見に基づき,自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
最後に,我々のフレームワーク上で実験を行い,ユーザによる研究を行い,仮説テストによる実験結果の検証を行った。
関連論文リスト
- Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving [4.1636282808157254]
エンドツーエンドの学習パイプラインは、高度に自律的な車両の開発におけるパラダイムシフトを徐々に生み出している。
現代の学習手法によるリアルタイム意思決定における解釈可能性の欠如は、ユーザの信頼を阻害し、そのような車両の広範な展開と商業化を阻害する。
この調査は、質問に答えようとしている。いつ、どのように説明がエンドツーエンドの自動運転の安全性を改善することができるのか?
論文 参考訳(メタデータ) (2024-03-18T18:49:20Z) - Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis [6.422370188350147]
本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
論文 参考訳(メタデータ) (2024-03-14T17:00:29Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z) - Building Trust in Autonomous Vehicles: Role of Virtual Reality Driving
Simulators in HMI Design [8.39368916644651]
本研究では,生理的信号から収集した連続的客観的情報に基づいて,AVのユーザエクスペリエンスを検証する手法を提案する。
本手法を車両の感覚・計画システムに関する視覚的手がかりを提供するヘッドアップディスプレイインタフェースの設計に適用した。
論文 参考訳(メタデータ) (2020-07-27T08:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。