論文の概要: A Baseline for the Commands For Autonomous Vehicles Challenge
- arxiv url: http://arxiv.org/abs/2004.13822v1
- Date: Mon, 20 Apr 2020 13:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 17:44:45.675953
- Title: A Baseline for the Commands For Autonomous Vehicles Challenge
- Title(参考訳): 自動運転車のためのコマンドのベースライン
- Authors: Simon Vandenhende, Thierry Deruyttere and Dusan Grujicic
- Abstract要約: この課題は、最近の textttTalk2Car データセットに基づいている。
この文書は、参加者が競争を始めるのを助けるためにリリースしたモデルに関する技術的な概要を提供します。
- 参考スコア(独自算出の注目度): 7.430057056425165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Commands For Autonomous Vehicles (C4AV) challenge requires participants
to solve an object referral task in a real-world setting. More specifically, we
consider a scenario where a passenger can pass free-form natural language
commands to a self-driving car. This problem is particularly challenging, as
the language is much less constrained compared to existing benchmarks, and
object references are often implicit. The challenge is based on the recent
\texttt{Talk2Car} dataset. This document provides a technical overview of a
model that we released to help participants get started in the competition. The
code can be found at https://github.com/talk2car/Talk2Car.
- Abstract(参考訳): 自動運転車のためのコマンド(c4av)チャレンジでは、参加者は現実世界でオブジェクト参照タスクを解決する必要がある。
具体的には、乗客が自由形式の自然言語コマンドを自動運転車に渡すシナリオを検討する。
言語は既存のベンチマークに比べて制約が少なく、オブジェクト参照はしばしば暗黙的であるため、この問題は特に難しい。
この課題は、最近の \texttt{Talk2Car} データセットに基づいている。
この文書は、参加者が競争を始めるのを助けるためにリリースしたモデルに関する技術的な概要を提供します。
コードはhttps://github.com/talk2car/Talk2Carで見ることができる。
関連論文リスト
- LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - Language Prompt for Autonomous Driving [58.45334918772529]
我々は,3D,マルチビュー,マルチフレーム空間内のシーンを駆動するための最初のオブジェクト指向言語プロンプトセットであるNuPromptを提案する。
合計35,367の言語記述を構築することで、Nuscenesデータセットを拡張し、それぞれが平均5.3のオブジェクトトラックを参照している。
新しいベンチマークから得られたオブジェクトとテキストのペアに基づいて、新しいプロンプトベースの駆動タスク、すなわち、言語プロンプトを用いて、ビューやフレーム間で記述されたオブジェクトの軌跡を予測する。
論文 参考訳(メタデータ) (2023-09-08T15:21:07Z) - The 6th AI City Challenge [91.65782140270152]
2022年のAIシティチャレンジの4つのチャレンジトラックは、27カ国254チームからの参加要請を受けた。
参加チームのトップパフォーマンスは強いベースラインを確立し、提案されたチャレンジトラックで最先端の成績を上げました。
論文 参考訳(メタデータ) (2022-04-21T19:24:17Z) - Predicting Physical World Destinations for Commands Given to
Self-Driving Cars [19.71691537605694]
本稿では,与えられた命令を実行した後,車が到達する必要がある3D宛先を注釈付けする拡張を提案する。
我々は、この特定の設定に適合した以前の作品より優れたモデルを導入する。
論文 参考訳(メタデータ) (2021-12-10T09:51:16Z) - Giving Commands to a Self-Driving Car: How to Deal with Uncertain
Situations? [21.19657707748505]
本稿では、コマンドが与えられたときの不確実な状況を検出し、その原因となる視覚オブジェクトを見つけるモデルを提案する。
車両が人間のような方法で物体を説明できたら、乗客は車の能力にもっと自信を持てるだろう、と我々は主張する。
論文 参考訳(メタデータ) (2021-06-08T10:21:11Z) - Connecting Language and Vision for Natural Language-Based Vehicle
Retrieval [77.88818029640977]
本稿では,言語記述という新たなモダリティを,興味ある車両の探索に適用する。
言語と視覚を結びつけるために,トランスフォーマーに基づく言語モデルを用いて最先端の視覚モデルを共同で訓練することを提案する。
提案手法は第5回AIシティチャレンジで1位を獲得し、18.69%のMRRの精度で競争性能を得た。
論文 参考訳(メタデータ) (2021-05-31T11:42:03Z) - Auto-KWS 2021 Challenge: Task, Datasets, and Baselines [63.82759886293636]
Auto-KWS 2021チャレンジは、カスタマイズされたキーワードスポッティングタスクに機械学習を適用するプロセスを自動化するために、自動機械学習(AutoML)ソリューションを呼び出します。
この課題は、ターゲットデバイスが特定のキーワードで登録された話者によってのみ覚醒できる、カスタマイズされたキーワードスポッティングの問題に焦点を当てている。
論文 参考訳(メタデータ) (2021-03-31T14:56:48Z) - Commands 4 Autonomous Vehicles (C4AV) Workshop Summary [91.92872482200018]
本稿では,最近のEmphTalk2Carデータセットに基づいて,EmphCommands for autonomous Vehicles (C4AV)チャレンジの結果について述べる。
我々は、トップパフォーマンスモデルを成功させる側面を特定し、それらを視覚的なグラウンド化のために既存の最先端モデルと関連付ける。
論文 参考訳(メタデータ) (2020-09-18T12:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。