論文の概要: Predicting Physical World Destinations for Commands Given to
Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2112.05419v1
- Date: Fri, 10 Dec 2021 09:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 13:15:07.905066
- Title: Predicting Physical World Destinations for Commands Given to
Self-Driving Cars
- Title(参考訳): 自走車に与えられた指令の物理世界決定予測
- Authors: Dusan Grujicic, Thierry Deruyttere, Marie-Francine Moens, Matthew
Blaschko
- Abstract要約: 本稿では,与えられた命令を実行した後,車が到達する必要がある3D宛先を注釈付けする拡張を提案する。
我々は、この特定の設定に適合した以前の作品より優れたモデルを導入する。
- 参考スコア(独自算出の注目度): 19.71691537605694
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, we have seen significant steps taken in the development of
self-driving cars. Multiple companies are starting to roll out impressive
systems that work in a variety of settings. These systems can sometimes give
the impression that full self-driving is just around the corner and that we
would soon build cars without even a steering wheel. The increase in the level
of autonomy and control given to an AI provides an opportunity for new modes of
human-vehicle interaction. However, surveys have shown that giving more control
to an AI in self-driving cars is accompanied by a degree of uneasiness by
passengers. In an attempt to alleviate this issue, recent works have taken a
natural language-oriented approach by allowing the passenger to give commands
that refer to specific objects in the visual scene. Nevertheless, this is only
half the task as the car should also understand the physical destination of the
command, which is what we focus on in this paper. We propose an extension in
which we annotate the 3D destination that the car needs to reach after
executing the given command and evaluate multiple different baselines on
predicting this destination location. Additionally, we introduce a model that
outperforms the prior works adapted for this particular setting.
- Abstract(参考訳): 近年、自動運転車の開発において大きなステップが取られている。
複数の企業が、さまざまな設定で動く印象的なシステムを展開し始めた。
これらのシステムは、完全な自動運転がちょうど角を曲がっており、ハンドルさえ持たずにすぐに車を作るという印象を与えることもある。
AIに与えられる自律性とコントロールのレベルの増加は、人間と車のインタラクションの新しいモードの機会を提供する。
しかし、自動運転車のAIにより多くのコントロールを与えるには、乗客の不安が伴うことが調査で示されている。
この問題を軽減するために、最近の研究では、乗客が視覚シーンの特定のオブジェクトを参照するコマンドを与えることで、自然言語指向のアプローチをとっている。
それでもこれは、車がコマンドの物理的目的地を理解する必要があるため、タスクの半分に過ぎません。
本稿では,与えられたコマンドを実行した後,車が到達する必要がある3D宛先をアノテートし,その宛先を予測するための複数のベースラインを評価する拡張を提案する。
さらに、この特定の設定に適応した先行作品よりも優れたモデルを導入する。
関連論文リスト
- Pedestrian motion prediction evaluation for urban autonomous driving [0.0]
我々は、従来の動き予測指標の妥当性を決定するために、提供されたオープンソースソリューションを用いて、選択した出版物を解析する。
この視点は、既存の最先端の歩行者運動予測問題の現実的なパフォーマンスを探している、自動運転やロボット工学の潜在的なエンジニアにとって価値があるだろう。
論文 参考訳(メタデータ) (2024-10-22T10:06:50Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Are you a robot? Detecting Autonomous Vehicles from Behavior Analysis [6.422370188350147]
本稿では,車両が自律的かどうかを判断するために,カメラ画像と状態情報を用いてアクティブな車両を監視するフレームワークを提案する。
基本的には、自動運転車を識別するための機械学習モデルを提供する道路上で取得したデータをシェアする車両間の協力に基づいて構築される。
実験により,ビデオクリップを80%の精度で解析することにより,2つの行動の識別が可能であることが確認された。
論文 参考訳(メタデータ) (2024-03-14T17:00:29Z) - Applications of Computer Vision in Autonomous Vehicles: Methods, Challenges and Future Directions [2.693342141713236]
本稿では,過去10年間に出版されたコンピュータビジョンと自動運転に関する論文をレビューする。
特に、まず自律運転システムの開発について検討し、各国の主要自動車メーカーによって開発されたこれらのシステムを要約する。
そこで, 深度推定, 物体検出, 車線検出, 信号認識など, 自律運転におけるコンピュータビジョン応用の概要を概観する。
論文 参考訳(メタデータ) (2023-11-15T16:41:18Z) - Data and Knowledge for Overtaking Scenarios in Autonomous Driving [0.0]
オーバーテイク・エクササイズは、運転において最も重要な行動の1つである。
文献で利用できる作業量にもかかわらず、ほんの少しの操作しか処理できない。
この研究は、この領域に寄与し、新たな合成データセットを提示する。
論文 参考訳(メタデータ) (2023-05-30T21:27:05Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Audiovisual Affect Assessment and Autonomous Automobiles: Applications [0.0]
このコントリビューションは、課題を予測し、ロードコンテキスト上のマルチモーダルな"オーディオプラスx"におけるモデリングに影響を与える潜在的な方法を提供することを目的としています。
技術的には、乗用車内の個人を全面的にモデル化し、信頼性の高いダイアリゼーションを行う。
結論として、自動感情分析は、最初に選択されたユースケースにおける自動運転車の適用可能性の点まで成熟した。
論文 参考訳(メタデータ) (2022-03-14T20:39:02Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Intelligent Roundabout Insertion using Deep Reinforcement Learning [68.8204255655161]
本稿では,多忙なラウンドアバウンドの入場を交渉できる演習計画モジュールを提案する。
提案されたモジュールは、トレーニングされたニューラルネットワークに基づいて、操作の全期間にわたって、ラウンドアバウンドに入るタイミングと方法を予測する。
論文 参考訳(メタデータ) (2020-01-03T11:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。