論文の概要: Effects of Explanation Specificity on Passengers in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2307.00633v1
- Date: Sun, 2 Jul 2023 18:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 14:56:25.520929
- Title: Effects of Explanation Specificity on Passengers in Autonomous Driving
- Title(参考訳): 自動運転における説明特異性が乗客に及ぼす影響
- Authors: Daniel Omeiza, Raunak Bhattacharyya, Nick Hawes, Marina Jirotka, Lars
Kunze
- Abstract要約: 本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
- 参考スコア(独自算出の注目度): 9.855051716204002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The nature of explanations provided by an explainable AI algorithm has been a
topic of interest in the explainable AI and human-computer interaction
community. In this paper, we investigate the effects of natural language
explanations' specificity on passengers in autonomous driving. We extended an
existing data-driven tree-based explainer algorithm by adding a rule-based
option for explanation generation. We generated auditory natural language
explanations with different levels of specificity (abstract and specific) and
tested these explanations in a within-subject user study (N=39) using an
immersive physical driving simulation setup. Our results showed that both
abstract and specific explanations had similar positive effects on passengers'
perceived safety and the feeling of anxiety. However, the specific explanations
influenced the desire of passengers to takeover driving control from the
autonomous vehicle (AV), while the abstract explanations did not. We conclude
that natural language auditory explanations are useful for passengers in
autonomous driving, and their specificity levels could influence how much
in-vehicle participants would wish to be in control of the driving activity.
- Abstract(参考訳): 説明可能なAIアルゴリズムによって提供される説明の性質は、説明可能なAIと人間とコンピュータのインタラクションコミュニティにおいて関心の的になっている。
本稿では,自然言語説明の特異性が自律運転の乗客に与える影響について検討する。
説明生成のためのルールベースオプションを追加することで,既存のデータ駆動型ツリーベース説明アルゴリズムを拡張した。
固有性(抽象的・特定的)の異なる難聴性自然言語説明を作成し,没入型物理駆動シミュレーションを用いて対象内ユーザ調査(n=39)で実験を行った。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
しかし、具体的説明は、乗客が自動運転車(AV)を乗っ取るという欲求に影響したが、抽象的な説明はしなかった。
自然言語による聴覚説明は、運転中の乗客にとって有用であり、その特異性レベルは、車内参加者が運転活動の制御を望んでいるかに影響する可能性があると結論づけた。
関連論文リスト
- A Transparency Paradox? Investigating the Impact of Explanation Specificity and Autonomous Vehicle Perceptual Inaccuracies on Passengers [14.394590436638232]
本研究は,自律運転における説明特異性の異なるレベルを介する透明性の効果について検討した。
具体的には、異なるタイプの説明が乗客の安全、不安、車両の制御意欲にどのように影響するかに焦点を当てた。
その結果、車両の認識システムに最小限の誤差がある場合、乗客は特定の説明でより安全であると感じ、一方、認識エラーを隠した抽象的な説明は安全性の感覚を低下させることがわかった。
論文 参考訳(メタデータ) (2024-08-16T14:59:00Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior [22.138074429937795]
認知科学は、人々がどの説明を期待するか、どのフォーマットでこれらの説明を行うのかを理解するのに役立ちます。
本研究は、自動運転車の振る舞いを14のシナリオで説明するための2つの調査から得られた経験的データを報告する。
参加者は、テレロジカルな説明は偽物よりもはるかに品質が高いと考えた。
論文 参考訳(メタデータ) (2024-03-11T11:48:50Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Driving through the Concept Gridlock: Unraveling Explainability
Bottlenecks in Automated Driving [22.21822829138535]
本稿では,視覚的特徴として概念ボトルネックを用いる新しい手法を提案する。
我々は、車両制御コマンドを学習しながら、シーケンシャルな運転シーンを説明するために、人間の理解可能な概念層を学習する。
このアプローチは、人間の(または自動運転車)からの指示が外部からの刺激や好みの変化によって導かれるかどうかを判断するために使用することができる。
論文 参考訳(メタデータ) (2023-10-25T13:39:04Z) - Studying the Impact of Semi-Cooperative Drivers on Overall Highway Flow [76.38515853201116]
半協調行動は、人間ドライバーの本質的な性質であり、自律運転には考慮すべきである。
新たな自律型プランナーは、社会的に準拠した軌道を生成するために、人間のドライバーの社会的価値指向(SVO)を考慮することができる。
エージェントが反復的最適応答のゲーム理論バージョンをデプロイする暗黙的な半協調運転について検討する。
論文 参考訳(メタデータ) (2023-04-23T16:01:36Z) - From Spoken Thoughts to Automated Driving Commentary: Predicting and
Explaining Intelligent Vehicles' Actions [10.557942353553859]
コメント運転では、ドライバーは観察、評価、意図を口頭で話す。
彼らの考えを語ることで、学習と熟練したドライバーの両方が、自分たちの環境をよりよく理解し、認識できるようになります。
インテリジェントな車両の文脈では、自動運転解説は運転行動についての理解に富んだ説明を提供することができる。
論文 参考訳(メタデータ) (2022-04-19T19:39:13Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - Explainable Object-induced Action Decision for Autonomous Vehicles [53.59781838748779]
自動運転の新しいパラダイムが提案されている。
それは人間がその問題を解決する方法にインスパイアされている。
この問題を解決するためにCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-20T17:33:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。