論文の概要: To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2006.11684v3
- Date: Thu, 10 Nov 2022 21:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:33:59.307528
- Title: To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles
- Title(参考訳): 説明するか、説明しないか:自律走行車のための説明の必要性に関する研究
- Authors: Yuan Shen, Shanduojiao Jiang, Yanlin Chen, Katie Driggs Campbell
- Abstract要約: 1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
- 参考スコア(独自算出の注目度): 26.095533634997786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI, in the context of autonomous systems, like self-driving cars,
has drawn broad interests from researchers. Recent studies have found that
providing explanations for autonomous vehicles' actions has many benefits
(e.g., increased trust and acceptance), but put little emphasis on when an
explanation is needed and how the content of explanation changes with driving
context. In this work, we investigate which scenarios people need explanations
and how the critical degree of explanation shifts with situations and driver
types. Through a user experiment, we ask participants to evaluate how necessary
an explanation is and measure the impact on their trust in self-driving cars in
different contexts. Moreover, we present a self-driving explanation dataset
with first-person explanations and associated measures of the necessity for
1103 video clips, augmenting the Berkeley Deep Drive Attention dataset. Our
research reveals that driver types and driving scenarios dictate whether an
explanation is necessary. In particular, people tend to agree on the necessity
for near-crash events but hold different opinions on ordinary or anomalous
driving situations.
- Abstract(参考訳): 自動運転車のような自律システムの文脈で説明可能なAIは、研究者から幅広い関心を集めている。
近年の研究では、自動運転車の動作を説明することは、多くの利点(例えば、信頼と受容の増大)があるが、説明が必要なときや、説明の内容が運転状況によってどのように変化するかはほとんど強調されていない。
そこで本研究では,説明が必要なシナリオと,状況やドライバータイプによる説明の重要度の変化について検討する。
ユーザ実験を通じて、参加者に説明の必要性を評価し、異なるコンテキストにおける自動運転車の信頼度への影響を測定する。
さらに,バークレーディープ・ドライブ・アテンション・データセットを増設した,1103ビデオ・クリップの必要性を1対1で説明する自動運転説明データセットを提案する。
本研究は,運転者の種類と運転シナリオが説明が必要かどうかを判断することを示す。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
関連論文リスト
- A Transparency Paradox? Investigating the Impact of Explanation Specificity and Autonomous Vehicle Perceptual Inaccuracies on Passengers [14.394590436638232]
本研究は,自律運転における説明特異性の異なるレベルを介する透明性の効果について検討した。
具体的には、異なるタイプの説明が乗客の安全、不安、車両の制御意欲にどのように影響するかに焦点を当てた。
その結果、車両の認識システムに最小限の誤差がある場合、乗客は特定の説明でより安全であると感じ、一方、認識エラーを隠した抽象的な説明は安全性の感覚を低下させることがわかった。
論文 参考訳(メタデータ) (2024-08-16T14:59:00Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior [22.138074429937795]
認知科学は、人々がどの説明を期待するか、どのフォーマットでこれらの説明を行うのかを理解するのに役立ちます。
本研究は、自動運転車の振る舞いを14のシナリオで説明するための2つの調査から得られた経験的データを報告する。
参加者は、テレロジカルな説明は偽物よりもはるかに品質が高いと考えた。
論文 参考訳(メタデータ) (2024-03-11T11:48:50Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - From Spoken Thoughts to Automated Driving Commentary: Predicting and
Explaining Intelligent Vehicles' Actions [10.557942353553859]
コメント運転では、ドライバーは観察、評価、意図を口頭で話す。
彼らの考えを語ることで、学習と熟練したドライバーの両方が、自分たちの環境をよりよく理解し、認識できるようになります。
インテリジェントな車両の文脈では、自動運転解説は運転行動についての理解に富んだ説明を提供することができる。
論文 参考訳(メタデータ) (2022-04-19T19:39:13Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Explainability of vision-based autonomous driving systems: Review and
challenges [33.720369945541805]
説明可能性の必要性は運転で強く、安全クリティカルなアプリケーションです。
この調査は、コンピュータビジョン、ディープラーニング、自動運転、説明可能なAI(X-AI)など、いくつかの研究分野から貢献を集めています。
論文 参考訳(メタデータ) (2021-01-13T19:09:38Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。