論文の概要: VTGNet: A Vision-based Trajectory Generation Network for Autonomous
Vehicles in Urban Environments
- arxiv url: http://arxiv.org/abs/2004.12591v3
- Date: Fri, 23 Oct 2020 08:46:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 05:03:08.572903
- Title: VTGNet: A Vision-based Trajectory Generation Network for Autonomous
Vehicles in Urban Environments
- Title(参考訳): VTGNet:都市環境における自律走行車のための視覚に基づく軌道生成ネットワーク
- Authors: Peide Cai, Yuxiang Sun, Hengli Wang, Ming Liu
- Abstract要約: 模倣学習に基づく不確実性を考慮した終端軌道生成手法を開発した。
様々な気象条件や照明条件下では,ネットワークは異なる都市環境下で確実にトラジェクトリを生成することができる。
提案手法は,SOTA(State-of-the-art-to-end Control)よりもクロスシーン/プラットフォーム駆動性が向上する。
- 参考スコア(独自算出の注目度): 26.558394047144006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional methods for autonomous driving are implemented with many building
blocks from perception, planning and control, making them difficult to
generalize to varied scenarios due to complex assumptions and
interdependencies. Recently, the end-to-end driving method has emerged, which
performs well and generalizes to new environments by directly learning from
export-provided data. However, many existing methods on this topic neglect to
check the confidence of the driving actions and the ability to recover from
driving mistakes. In this paper, we develop an uncertainty-aware end-to-end
trajectory generation method based on imitation learning. It can extract
spatiotemporal features from the front-view camera images for scene
understanding, and then generate collision-free trajectories several seconds
into the future. The experimental results suggest that under various weather
and lighting conditions, our network can reliably generate trajectories in
different urban environments, such as turning at intersections and slowing down
for collision avoidance. Furthermore, closed-loop driving tests suggest that
the proposed method achieves better cross-scene/platform driving results than
the state-of-the-art (SOTA) end-to-end control method, where our model can
recover from off-center and off-orientation errors and capture 80% of dangerous
cases with high uncertainty estimations.
- Abstract(参考訳): 従来の自動運転の方法は、知覚、計画、制御から多くのビルディングブロックで実装されており、複雑な仮定と相互依存性のために様々なシナリオに一般化することが困難である。
近年,輸出提供データから直接学習することで,新たな環境への一般化を実現するエンドツーエンド運転法が登場している。
しかしながら、この話題に関する既存の方法の多くは、運転行動の信頼性と、運転ミスから回復する能力の確認を怠っている。
本稿では,模倣学習に基づく不確実性を考慮した終端軌道生成手法を提案する。
前面カメラ画像から時空間的特徴を抽出してシーン理解し、今後数秒以内に衝突のない軌跡を生成することができる。
実験結果から, 各種気象・照明条件下では, 交差点の曲がり角や衝突回避の減速など, 都市環境の異なる軌道を確実に生成できることが示唆された。
さらに, 閉ループ運転試験の結果から, モデルがオフセンタおよびオフオリエンテーション誤差から回復し, 80%の危険事例を高い不確実性評価で捕捉できるSOTA(State-of-the-art-end-to-end Control)法よりも, クロスシーン/プラットフォーム運転結果が良好であることが示唆された。
関連論文リスト
- Building Real-time Awareness of Out-of-distribution in Trajectory Prediction for Autonomous Vehicles [8.398221841050349]
軌道予測は、自動運転車の周囲の障害物の動きを記述する。
本稿では,自律走行車における軌道予測におけるアウト・オブ・ディストリビューションのリアルタイム認識を確立することを目的とする。
提案手法は軽量であり, 軌道予測推定時にいつでもアウト・オブ・ディストリビューションの発生を処理できる。
論文 参考訳(メタデータ) (2024-09-25T18:43:58Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Learning Representation for Anomaly Detection of Vehicle Trajectories [15.20257956793474]
周囲の車両の将来の軌跡をその歴史に基づいて予測することは、自動運転における重要な課題である。
小型の摂動は、エゴの将来の軌道予測モジュールを著しく誤解させる可能性がある。
本稿では,車両軌道のオンライン異常検出のための,効率的かつ効率的な表現を学習するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-09T02:48:59Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - An End-to-end Deep Reinforcement Learning Approach for the Long-term
Short-term Planning on the Frenet Space [0.0]
本稿では,自動運転車の意思決定と動作計画に向けた,エンドツーエンドの継続的強化学習手法を提案する。
初めて、Frenet空間上の状態と行動空間の両方を定義して、走行挙動を道路曲率に変化させないようにする。
このアルゴリズムは、フィードバックコントローラが追跡するFrenetフレーム上で連続時間軌道を生成する。
論文 参考訳(メタデータ) (2020-11-26T02:40:07Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。