論文の概要: LaserFlow: Efficient and Probabilistic Object Detection and Motion
Forecasting
- arxiv url: http://arxiv.org/abs/2003.05982v4
- Date: Thu, 15 Oct 2020 20:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 14:32:34.448678
- Title: LaserFlow: Efficient and Probabilistic Object Detection and Motion
Forecasting
- Title(参考訳): laserflow:効率的な確率的物体検出と動き予測
- Authors: Gregory P. Meyer, Jake Charland, Shreyash Pandey, Ankit Laddha, Shivam
Gautam, Carlos Vallespi-Gonzalez, Carl K. Wellington
- Abstract要約: 本稿では,LiDARからの3次元物体検出と動き予測の効率的な手法であるLaserFlowを提案する。
従来の手法とは異なり,本手法ではLiDARのネイティブレンジビュー表現を利用する。
本稿では,画像から時間的特徴を直接抽出し,マージするマルチスウィープ融合アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 12.707542598708338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present LaserFlow, an efficient method for 3D object
detection and motion forecasting from LiDAR. Unlike the previous work, our
approach utilizes the native range view representation of the LiDAR, which
enables our method to operate at the full range of the sensor in real-time
without voxelization or compression of the data. We propose a new multi-sweep
fusion architecture, which extracts and merges temporal features directly from
the range images. Furthermore, we propose a novel technique for learning a
probability distribution over future trajectories inspired by curriculum
learning. We evaluate LaserFlow on two autonomous driving datasets and
demonstrate competitive results when compared to the existing state-of-the-art
methods.
- Abstract(参考訳): 本稿では,LiDARからの3次元物体検出と動き予測の効率的な手法であるLaserFlowを提案する。
従来の手法と異なり,本手法ではLiDARのネイティブレンジビュー表現を利用して,データのボキセル化や圧縮を伴わずに,センサの全範囲でリアルタイムに動作することができる。
本稿では,画像から時間的特徴を直接抽出し,マージするマルチスウィープ融合アーキテクチャを提案する。
さらに,カリキュラム学習に触発された将来の軌道上の確率分布を学習する新しい手法を提案する。
2つの自律運転データセット上でのレーザーフローを評価し,既存の最先端手法と比較した場合の競合結果を示す。
関連論文リスト
- Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Fast LiDAR Upsampling using Conditional Diffusion Models [1.3709133749179265]
既存の手法は拡散モデルを用いて高忠実度で洗練されたLiDARデータを生成する可能性を示している。
高速かつ高品質な3次元シーンポイント雲のスパース・ツー・デンスアップサンプリングのための条件拡散モデルに基づく新しいアプローチを提案する。
本手法では,条件付き塗装マスクを用いて訓練した拡散確率モデルを用いて,画像補完タスクの性能向上を図っている。
論文 参考訳(メタデータ) (2024-05-08T08:38:28Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - Learning Moving-Object Tracking with FMCW LiDAR [53.05551269151209]
新たに開発したLiDARセンサである周波数変調連続波(FMCW)を用いた学習型移動物体追跡手法を提案する。
ラベルが与えられた場合,同じインスタンスから機能を埋め込みスペースにまとめて,異なるインスタンスから機能を分離してトラッキング品質を向上させる,対照的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-02T09:11:36Z) - Dense Voxel Fusion for 3D Object Detection [10.717415797194896]
ボクセル融合 (Voxel Fusion, DVF) は, 多スケール密度ボクセル特徴表現を生成する逐次融合法である。
地上の真理2Dバウンディングボックスラベルを直接トレーニングし、ノイズの多い検出器固有の2D予測を避けます。
提案したマルチモーダルトレーニング戦略は, 誤った2次元予測を用いたトレーニングに比べ, より一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-02T04:51:31Z) - FAST3D: Flow-Aware Self-Training for 3D Object Detectors [12.511087244102036]
最先端の自己学習アプローチは、主に自律運転データの時間的性質を無視している。
連続したLiDAR点雲上の3次元物体検出器の教師なし領域適応を可能にするフロー認識型自己学習法を提案する。
以上の結果から,先進的なドメイン知識がなければ,最先端技術よりも大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2021-10-18T14:32:05Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。