論文の概要: From Spoken Thoughts to Automated Driving Commentary: Predicting and
Explaining Intelligent Vehicles' Actions
- arxiv url: http://arxiv.org/abs/2204.09109v1
- Date: Tue, 19 Apr 2022 19:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 01:43:44.315993
- Title: From Spoken Thoughts to Automated Driving Commentary: Predicting and
Explaining Intelligent Vehicles' Actions
- Title(参考訳): 音声による思考から運転の自動化へ--インテリジェントな車の行動の予測と説明
- Authors: Daniel Omeiza, Sule Anjomshoae, Helena Webb, Marina Jirotka, Lars
Kunze
- Abstract要約: インテリジェントな車両の文脈では、自動運転解説は運転行動についての理解に富んだ説明を提供することができる。
単純な木に基づく手法を用いて,実例と反実例の自然言語説明を自動生成する方法を実証した。
- 参考スコア(独自算出の注目度): 10.557942353553859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commentary driving is a technique in which drivers verbalise their
observations, assessments and intentions. By speaking out their thoughts, both
learning and expert drivers are able to create a better understanding and
awareness of their surroundings. In the intelligent vehicle context, automated
driving commentary can provide intelligible explanations about driving actions,
and thereby assist a driver or an end-user during driving operations in
challenging and safety-critical scenarios. In this paper, we conducted a field
study in which we deployed a research vehicle in an urban environment to obtain
data. While collecting sensor data of the vehicle's surroundings, we obtained
driving commentary from a driving instructor using the think-aloud protocol. We
analysed the driving commentary and uncovered an explanation style; the driver
first announces his observations, announces his plans, and then makes general
remarks. He also made counterfactual comments. We successfully demonstrated how
factual and counterfactual natural language explanations that follow this style
could be automatically generated using a simple tree-based approach. Generated
explanations for longitudinal actions (e.g., stop and move) were deemed more
intelligible and plausible by human judges compared to lateral actions, such as
lane changes. We discussed how our approach can be built on in the future to
realise more robust and effective explainability for driver assistance as well
as partial and conditional automation of driving functions.
- Abstract(参考訳): コメント駆動は、ドライバーが観察、評価、意図を言語化する技法である。
彼らの考えを語ることで、学習と熟練したドライバーの両方が、自分たちの環境をよりよく理解し、認識できるようになります。
インテリジェントな車両の文脈では、自動運転解説は運転行動についての理解に富んだ説明を提供し、運転中の運転者やエンドユーザーを支援する。
本研究では,都市環境に研究車両を配置し,データを取得するフィールドスタディを行った。
車両周囲のセンサデータを収集しながら,think-aloudプロトコルを用いて運転インストラクターから運転解説を得た。
ドライバーはまず彼の観察を公表し、計画を発表し、次に一般的な発言をする。
彼は反実的なコメントもした。
我々は,このスタイルに従う実例と反実例の自然言語説明を,単純な木に基づくアプローチで自動生成する方法を実証した。
縦方向の行動(例えば停止と移動)に対する説明は、車線変更のような横方向の行動と比較して、人間の判断者によってより知性があり、妥当であると考えられた。
我々は,運転機能の部分的および条件的自動化だけでなく,運転支援システムのより堅牢で効果的な説明可能性を実現するために,我々のアプローチをどのように構築するかについて議論した。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - Data and Knowledge for Overtaking Scenarios in Autonomous Driving [0.0]
オーバーテイク・エクササイズは、運転において最も重要な行動の1つである。
文献で利用できる作業量にもかかわらず、ほんの少しの操作しか処理できない。
この研究は、この領域に寄与し、新たな合成データセットを提示する。
論文 参考訳(メタデータ) (2023-05-30T21:27:05Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Explainability of vision-based autonomous driving systems: Review and
challenges [33.720369945541805]
説明可能性の必要性は運転で強く、安全クリティカルなアプリケーションです。
この調査は、コンピュータビジョン、ディープラーニング、自動運転、説明可能なAI(X-AI)など、いくつかの研究分野から貢献を集めています。
論文 参考訳(メタデータ) (2021-01-13T19:09:38Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。