論文の概要: Temporal LiDAR Frame Prediction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2012.09409v1
- Date: Thu, 17 Dec 2020 06:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:36:32.421437
- Title: Temporal LiDAR Frame Prediction for Autonomous Driving
- Title(参考訳): 自律走行のための時間ライダーフレーム予測
- Authors: David Deng and Avideh Zakhor
- Abstract要約: 将来のLiDARフレームを予測するための新しいニューラルネットワークアーキテクチャのクラスを提案する。
この応用の根底にある真実は、単にシーケンスの次のフレームであるので、自制的な方法でモデルを訓練することができる。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating the future in a dynamic scene is critical for many fields such
as autonomous driving and robotics. In this paper we propose a class of novel
neural network architectures to predict future LiDAR frames given previous
ones. Since the ground truth in this application is simply the next frame in
the sequence, we can train our models in a self-supervised fashion. Our
proposed architectures are based on FlowNet3D and Dynamic Graph CNN. We use
Chamfer Distance (CD) and Earth Mover's Distance (EMD) as loss functions and
evaluation metrics. We train and evaluate our models using the newly released
nuScenes dataset, and characterize their performance and complexity with
several baselines. Compared to directly using FlowNet3D, our proposed
architectures achieve CD and EMD nearly an order of magnitude lower. In
addition, we show that our predictions generate reasonable scene flow
approximations without using any labelled supervision.
- Abstract(参考訳): ダイナミックなシーンで未来を予測することは、自律運転やロボット工学など、多くの分野において重要である。
本稿では,従来のLiDARフレームを予測するための新しいニューラルネットワークアーキテクチャのクラスを提案する。
このアプリケーションの基本的真理は、単にシーケンスの次のフレームであるので、自己教師型でモデルをトレーニングすることができる。
提案アーキテクチャはFlowNet3DとDynamic Graph CNNに基づいている。
我々は、損失関数と評価指標として、Chamfer Distance (CD) と Earth Mover's Distance (EMD) を用いる。
新たにリリースされたnuScenesデータセットを使ってモデルをトレーニングし、評価し、いくつかのベースラインでそれらのパフォーマンスと複雑さを特徴付ける。
FlowNet3Dを直接使用するのに比べ、提案するアーキテクチャはCDとEMDをほぼ1桁小さくする。
さらに, ラベル付き監視を使わずに, 合理的なシーンフロー近似を生成できることを示す。
関連論文リスト
- DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Learning Multi-Object Dynamics with Compositional Neural Radiance Fields [63.424469458529906]
本稿では,暗黙的オブジェクトエンコーダ,ニューラルレージアンスフィールド(NeRF),グラフニューラルネットワークに基づく画像観測から構成予測モデルを学習する手法を提案する。
NeRFは3D以前の強みから、シーンを表現するための一般的な選択肢となっている。
提案手法では,学習した潜時空間にRTを応用し,そのモデルと暗黙のオブジェクトエンコーダを用いて潜時空間を情報的かつ効率的にサンプリングする。
論文 参考訳(メタデータ) (2022-02-24T01:31:29Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。