論文の概要: Traffic Control Gesture Recognition for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2007.16072v1
- Date: Fri, 31 Jul 2020 13:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:37:40.250761
- Title: Traffic Control Gesture Recognition for Autonomous Vehicles
- Title(参考訳): 自動運転車の交通制御ジェスチャー認識
- Authors: Julian Wiederer, Arij Bouazizi, Ulrich Kressel and Vasileios
Belagiannis
- Abstract要約: 本稿では,3Dボディスケルトン入力に基づくデータセットを導入し,時間ステップ毎に交通制御のジェスチャー分類を行う。
私たちのデータセットは、複数のアクターから250のシーケンスで構成されています。
- 参考スコア(独自算出の注目度): 4.336324036790157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A car driver knows how to react on the gestures of the traffic officers.
Clearly, this is not the case for the autonomous vehicle, unless it has road
traffic control gesture recognition functionalities. In this work, we address
the limitation of the existing autonomous driving datasets to provide learning
data for traffic control gesture recognition. We introduce a dataset that is
based on 3D body skeleton input to perform traffic control gesture
classification on every time step. Our dataset consists of 250 sequences from
several actors, ranging from 16 to 90 seconds per sequence. To evaluate our
dataset, we propose eight sequential processing models based on deep neural
networks such as recurrent networks, attention mechanism, temporal
convolutional networks and graph convolutional networks. We present an
extensive evaluation and analysis of all approaches for our dataset, as well as
real-world quantitative evaluation. The code and dataset is publicly available.
- Abstract(参考訳): 車の運転手は、交通官のジェスチャーに反応する方法を知っています。
道路交通制御のジェスチャー認識機能がない限り、これは自動運転車には当てはまらないことは明らかだ。
本研究では、交通制御ジェスチャー認識のための学習データを提供するため、既存の自動運転データセットの制限に対処する。
本稿では3Dボディスケルトン入力に基づくデータセットを導入し,時間ステップ毎に交通制御のジェスチャー分類を行う。
私たちのデータセットは、複数のアクターによる250のシーケンスで構成されています。
このデータセットを評価するために,再帰的ネットワーク,注意機構,時間的畳み込みネットワーク,グラフ畳み込みネットワークなどのディープニューラルネットワークに基づく8つの逐次処理モデルを提案する。
我々は、データセットに対する全てのアプローチの広範な評価と分析、および現実世界の定量的評価について述べる。
コードとデータセットが公開されている。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Driver Maneuver Detection and Analysis using Time Series Segmentation
and Classification [7.413735713939367]
本稿では,自然主義運転環境下での車両遠隔計測データから車両の操作を自動的に検出する手法を実装した。
本研究の目的は、自然主義駆動学習ビデオのフレーム・バイ・フレームアノテーションのためのエンドツーエンドパイプラインを開発することである。
論文 参考訳(メタデータ) (2022-11-10T03:38:50Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Autonomous Navigation through intersections with Graph
ConvolutionalNetworks and Conditional Imitation Learning for Self-driving
Cars [10.080958939027363]
自動運転では、信号のない交差点を通るナビゲーションは難しい作業だ。
ナビゲーションポリシー学習のための新しい分岐ネットワークG-CILを提案する。
エンドツーエンドのトレーニング可能なニューラルネットワークは、より高い成功率と短いナビゲーション時間でベースラインを上回っています。
論文 参考訳(メタデータ) (2021-02-01T07:33:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - The Pedestrian Patterns Dataset [11.193504036335503]
データセットは、異なる特定のタイムスロットから1週間、同じ3つのルートを繰り返すことで収集された。
データセットの目的は、横断するルートに沿って異なる時間に、社会的および歩行者の行動パターンをキャプチャすることである。
論文 参考訳(メタデータ) (2020-01-06T23:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。