論文の概要: An LSTM Approach to Temporal 3D Object Detection in LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2007.12392v1
- Date: Fri, 24 Jul 2020 07:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:30:51.587445
- Title: An LSTM Approach to Temporal 3D Object Detection in LiDAR Point Clouds
- Title(参考訳): LSTMによるLiDAR点雲の時間的3次元物体検出
- Authors: Rui Huang, Wanyue Zhang, Abhijit Kundu, Caroline Pantofaru, David A
Ross, Thomas Funkhouser, Alireza Fathi
- Abstract要約: LSTMを用いた多フレーム3dオブジェクト検出アルゴリズムを提案する。
我々は、U-Netスタイルのスパース畳み込みネットワークを用いて、各フレームのLiDAR点クラウドの特徴を抽出する。
- 参考スコア(独自算出の注目度): 16.658604637005535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting objects in 3D LiDAR data is a core technology for autonomous
driving and other robotics applications. Although LiDAR data is acquired over
time, most of the 3D object detection algorithms propose object bounding boxes
independently for each frame and neglect the useful information available in
the temporal domain. To address this problem, in this paper we propose a sparse
LSTM-based multi-frame 3d object detection algorithm. We use a U-Net style 3D
sparse convolution network to extract features for each frame's LiDAR
point-cloud. These features are fed to the LSTM module together with the hidden
and memory features from last frame to predict the 3d objects in the current
frame as well as hidden and memory features that are passed to the next frame.
Experiments on the Waymo Open Dataset show that our algorithm outperforms the
traditional frame by frame approach by 7.5% mAP@0.7 and other multi-frame
approaches by 1.2% while using less memory and computation per frame. To the
best of our knowledge, this is the first work to use an LSTM for 3D object
detection in sparse point clouds.
- Abstract(参考訳): 3dlidarデータのオブジェクト検出は、自動運転やその他のロボットアプリケーションの中核技術である。
LiDARデータは時間とともに取得されるが、ほとんどの3Dオブジェクト検出アルゴリズムは、各フレームごとに独立してオブジェクト境界ボックスを提案し、時間領域で利用可能な有用な情報を無視する。
本稿では,LSTMを用いた多フレーム3dオブジェクト検出アルゴリズムを提案する。
我々はU-Netスタイルのスパース畳み込みネットワークを用いて各フレームのLiDAR点クラウドの特徴を抽出する。
これらの機能は、ラストフレームから隠されたメモリ機能とともにlstmモジュールに供給され、現在のフレーム内の3dオブジェクトや、次のフレームに渡される隠されたメモリ機能を予測する。
Waymo Open Datasetの実験では、我々のアルゴリズムは、フレーム当たりのメモリと計算を少なくしながら、7.5% mAP@0.7や他のマルチフレームアプローチよりも1.2%向上している。
我々の知る限りでは、これはスパース・ポイント・クラウドにおける3次元オブジェクト検出にLSTMを使った最初の研究である。
関連論文リスト
- VLM-Grounder: A VLM Agent for Zero-Shot 3D Visual Grounding [57.04804711488706]
3Dビジュアルグラウンドティングはロボットにとって不可欠であり、自然言語と3Dシーン理解を統合する必要がある。
VLM-Grounderは視覚言語モデル(VLM)を用いて2次元画像のみに基づくゼロショット3次元視覚グラウンドティングを行う新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-17T17:59:55Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Temp-Frustum Net: 3D Object Detection with Temporal Fusion [0.0]
3Dオブジェクト検出は、自動運転システムの中核コンポーネントです。
フレームバイフレームの3dオブジェクト検出はノイズ、視野障害、スパーシティに苦しむ。
これらの問題を緩和するための新しい時間融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-04-25T09:08:14Z) - 3D-MAN: 3D Multi-frame Attention Network for Object Detection [22.291051951077485]
3D-MANは、複数の視点から効果的に機能を集約する3Dマルチフレームアテンションネットワークです。
3D-MANは, 単フレームおよび複数フレームの手法と比較して, 最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T03:44:22Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。