論文の概要: Temporal LiDAR Frame Prediction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2012.09409v1
- Date: Thu, 17 Dec 2020 06:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:36:32.421437
- Title: Temporal LiDAR Frame Prediction for Autonomous Driving
- Title(参考訳): 自律走行のための時間ライダーフレーム予測
- Authors: David Deng and Avideh Zakhor
- Abstract要約: 将来のLiDARフレームを予測するための新しいニューラルネットワークアーキテクチャのクラスを提案する。
この応用の根底にある真実は、単にシーケンスの次のフレームであるので、自制的な方法でモデルを訓練することができる。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating the future in a dynamic scene is critical for many fields such
as autonomous driving and robotics. In this paper we propose a class of novel
neural network architectures to predict future LiDAR frames given previous
ones. Since the ground truth in this application is simply the next frame in
the sequence, we can train our models in a self-supervised fashion. Our
proposed architectures are based on FlowNet3D and Dynamic Graph CNN. We use
Chamfer Distance (CD) and Earth Mover's Distance (EMD) as loss functions and
evaluation metrics. We train and evaluate our models using the newly released
nuScenes dataset, and characterize their performance and complexity with
several baselines. Compared to directly using FlowNet3D, our proposed
architectures achieve CD and EMD nearly an order of magnitude lower. In
addition, we show that our predictions generate reasonable scene flow
approximations without using any labelled supervision.
- Abstract(参考訳): ダイナミックなシーンで未来を予測することは、自律運転やロボット工学など、多くの分野において重要である。
本稿では,従来のLiDARフレームを予測するための新しいニューラルネットワークアーキテクチャのクラスを提案する。
このアプリケーションの基本的真理は、単にシーケンスの次のフレームであるので、自己教師型でモデルをトレーニングすることができる。
提案アーキテクチャはFlowNet3DとDynamic Graph CNNに基づいている。
我々は、損失関数と評価指標として、Chamfer Distance (CD) と Earth Mover's Distance (EMD) を用いる。
新たにリリースされたnuScenesデータセットを使ってモデルをトレーニングし、評価し、いくつかのベースラインでそれらのパフォーマンスと複雑さを特徴付ける。
FlowNet3Dを直接使用するのに比べ、提案するアーキテクチャはCDとEMDをほぼ1桁小さくする。
さらに, ラベル付き監視を使わずに, 合理的なシーンフロー近似を生成できることを示す。
関連論文リスト
- OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Trajeglish: Learning the Language of Driving Scenarios [75.61820235290608]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Occlusion Guided Self-supervised Scene Flow Estimation on 3D Point
Clouds [4.518012967046983]
2つの連続時間フレーム間のスパースサンプリング点の3次元空間における流れを理解することは、現代の幾何学駆動系の中核石である。
本稿では,咬合下の3次元シーンフロー推定のための新しい自己教師あり学習法とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-10T09:55:19Z) - Stepwise Goal-Driven Networks for Trajectory Prediction [24.129731432223416]
観測されたエージェントの将来の軌跡を,複数の時間スケールで推定し,その目標を用いて予測することを提案する。
SGNet(Stepwise Goal-Driven Network)という新しい軌道予測ネットワークを提案する。
特に、フレームワークには、履歴情報をキャプチャするエンコーダモジュール、一連の目標を未来に予測するステップワイズ目標推定モジュール、将来の軌道を予測するデコーダモジュールが組み込まれています。
論文 参考訳(メタデータ) (2021-03-25T19:51:54Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。