論文の概要: Giving Commands to a Self-Driving Car: How to Deal with Uncertain
Situations?
- arxiv url: http://arxiv.org/abs/2106.04232v1
- Date: Tue, 8 Jun 2021 10:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:15:59.465262
- Title: Giving Commands to a Self-Driving Car: How to Deal with Uncertain
Situations?
- Title(参考訳): 自動運転車にコマンドを与える:不確かな状況に対処するには?
- Authors: Thierry Deruyttere, Victor Milewski, Marie-Francine Moens
- Abstract要約: 本稿では、コマンドが与えられたときの不確実な状況を検出し、その原因となる視覚オブジェクトを見つけるモデルを提案する。
車両が人間のような方法で物体を説明できたら、乗客は車の能力にもっと自信を持てるだろう、と我々は主張する。
- 参考スコア(独自算出の注目度): 21.19657707748505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current technology for autonomous cars primarily focuses on getting the
passenger from point A to B. Nevertheless, it has been shown that passengers
are afraid of taking a ride in self-driving cars. One way to alleviate this
problem is by allowing the passenger to give natural language commands to the
car. However, the car can misunderstand the issued command or the visual
surroundings which could lead to uncertain situations. It is desirable that the
self-driving car detects these situations and interacts with the passenger to
solve them. This paper proposes a model that detects uncertain situations when
a command is given and finds the visual objects causing it. Optionally, a
question generated by the system describing the uncertain objects is included.
We argue that if the car could explain the objects in a human-like way,
passengers could gain more confidence in the car's abilities. Thus, we
investigate how to (1) detect uncertain situations and their underlying causes,
and (2) how to generate clarifying questions for the passenger. When evaluating
on the Talk2Car dataset, we show that the proposed model, \acrfull{pipeline},
improves \gls{m:ambiguous-absolute-increase} in terms of $IoU_{.5}$ compared to
not using \gls{pipeline}. Furthermore, we designed a referring expression
generator (REG) \acrfull{reg_model} tailored to a self-driving car setting
which yields a relative improvement of \gls{m:meteor-relative} METEOR and
\gls{m:rouge-relative} ROUGE-l compared with state-of-the-art REG models, and
is three times faster.
- Abstract(参考訳): 自動運転車の現在の技術は主にA地点からB地点まで乗客を乗せることに焦点を当てている。
それでも、乗客は自動運転車に乗るのを恐れていることが示されている。
この問題を緩和する一つの方法は、乗客が車に自然言語コマンドを与えることである。
しかし、車両は発行された指令や視覚環境を誤解し、不確定な状況につながる可能性がある。
自動運転車がこれらの状況を検出し、乗客と対話して解決することが望ましい。
本稿では、コマンドが与えられたときの不確実な状況を検出し、それを引き起こす視覚オブジェクトを見つけるモデルを提案する。
任意に、不確実なオブジェクトを記述するシステムによって生成される質問を含める。
車両が人間のような方法で物体を説明できたら、乗客は車の能力にもっと自信を持てるだろう、と我々は主張する。
そこで本研究では,(1)不確定な状況とその原因の検出方法,(2)乗客に対する明確な質問の生成方法について検討する。
Talk2Carデータセットで評価すると、提案したモデルである \acrfull{pipeline} が、 \gls{m:ambiguous-absolute-increase} を $IoU_{.5}$ で改善することを示す。
さらに,従来のREGモデルと比較して,gls{m:meteor-relative} METEOR と \gls{m:rouge-relative} ROUGE-l を相対的に改善し,より3倍高速な自動運転車設定に適した参照式生成器 (REG) \acrfull{reg_model} を設計した。
関連論文リスト
- Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - Effects of Explanation Specificity on Passengers in Autonomous Driving [9.855051716204002]
本研究では、自然言語説明の特異性が自動運転における乗客に与える影響について検討する。
特定度(抽象的・特異性)の異なる聴覚的自然言語説明法を作成した。
その結果, 抽象的・特異的な説明は, 乗客の安心感や不安感に類似した効果が認められた。
論文 参考訳(メタデータ) (2023-07-02T18:40:05Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - Predicting Physical World Destinations for Commands Given to
Self-Driving Cars [19.71691537605694]
本稿では,与えられた命令を実行した後,車が到達する必要がある3D宛先を注釈付けする拡張を提案する。
我々は、この特定の設定に適合した以前の作品より優れたモデルを導入する。
論文 参考訳(メタデータ) (2021-12-10T09:51:16Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Commands 4 Autonomous Vehicles (C4AV) Workshop Summary [91.92872482200018]
本稿では,最近のEmphTalk2Carデータセットに基づいて,EmphCommands for autonomous Vehicles (C4AV)チャレンジの結果について述べる。
我々は、トップパフォーマンスモデルを成功させる側面を特定し、それらを視覚的なグラウンド化のために既存の最先端モデルと関連付ける。
論文 参考訳(メタデータ) (2020-09-18T12:33:21Z) - To Explain or Not to Explain: A Study on the Necessity of Explanations
for Autonomous Vehicles [26.095533634997786]
1103ビデオクリップの必要性を1対1で説明する自動運転説明データセットを提案する。
我々の研究は、ドライバーのタイプと運転シナリオが説明が必要かどうかを判断することを示した。
特に、ニアクラッシュなイベントの必要性には同意する傾向にあるが、通常の運転状況や異常運転状況については異なる意見を持っている。
論文 参考訳(メタデータ) (2020-06-21T00:38:24Z) - A Baseline for the Commands For Autonomous Vehicles Challenge [7.430057056425165]
この課題は、最近の textttTalk2Car データセットに基づいている。
この文書は、参加者が競争を始めるのを助けるためにリリースしたモデルに関する技術的な概要を提供します。
論文 参考訳(メタデータ) (2020-04-20T13:35:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。