論文の概要: PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21)
- arxiv url: http://arxiv.org/abs/2106.07552v1
- Date: Thu, 3 Jun 2021 05:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:07:46.318538
- Title: PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21)
- Title(参考訳): PC-DAN:ポイントクラウドによる3次元多物体追跡のためのディープアフィニティネットワーク(CVPR21JRDB-ACTワークショップにおける拡張抽象化として)
- Authors: Aakash Kumar, Jyoti Kini, Mubarak Shah, Ajmal Mian
- Abstract要約: 点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
- 参考スコア(独自算出の注目度): 68.12101204123422
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent times, the scope of LIDAR (Light Detection and Ranging)
sensor-based technology has spread across numerous fields. It is popularly used
to map terrain and navigation information into reliable 3D point cloud data,
potentially revolutionizing the autonomous vehicles and assistive robotic
industry. A point cloud is a dense compilation of spatial data in 3D
coordinates. It plays a vital role in modeling complex real-world scenes since
it preserves structural information and avoids perspective distortion, unlike
image data, which is the projection of a 3D structure on a 2D plane. In order
to leverage the intrinsic capabilities of the LIDAR data, we propose a
PointNet-based approach for 3D Multi-Object Tracking (MOT).
- Abstract(参考訳): 近年,LIDAR(Light Detection and Ranging)センサー技術の範囲は,様々な分野に広がっている。
地形やナビゲーション情報を信頼できる3Dポイントのクラウドデータにマップするのによく使われ、自動運転車や補助ロボット産業に革命をもたらす可能性がある。
点雲は3次元座標における空間データの密集したコンパイルである。
2次元平面上の3次元構造の投影である画像データとは異なり、構造情報を保存し、視点歪みを避けるため、複雑な現実世界のシーンのモデリングにおいて重要な役割を果たす。
LIDARデータの本質的能力を活用するために,3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
関連論文リスト
- SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - SWFormer: Sparse Window Transformer for 3D Object Detection in Point
Clouds [44.635939022626744]
ポイントクラウドにおける3Dオブジェクト検出は、現代のロボティクスと自律運転システムの中核となるコンポーネントである。
3Dオブジェクト検出の鍵となる課題は、3Dシーン内でのポイント占有のスパースな性質にある。
Sparse Window Transformer (SWFormer) を提案する。
論文 参考訳(メタデータ) (2022-10-13T21:37:53Z) - 3D Visual Tracking Framework with Deep Learning for Asteroid Exploration [22.808962211830675]
本稿では,3次元追跡のための高精度かつリアルタイムな手法について検討する。
両眼ビデオシーケンス、深度マップ、様々な小惑星の点雲を含む、新しい大規模な3D小惑星追跡データセットが提示されている。
深層学習に基づく3DトラッキングフレームワークTrack3Dを提案する。このフレームワークは,2次元単分子トラッカーと,新しい軽量アモーダル軸整合バウンディングボックスネットワークであるA3BoxNetを備える。
論文 参考訳(メタデータ) (2021-11-21T04:14:45Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Investigating Attention Mechanism in 3D Point Cloud Object Detection [25.53702053256288]
本研究は,3次元点状物体検出における注意機構の役割について考察する。
異なる注目モジュールの可能性についての洞察を提供する。
本論文は,注意を埋め込んだ3Dポイント・クラウド・オブジェクト検出のためのリファレンス・ソースとして期待されている。
論文 参考訳(メタデータ) (2021-08-02T03:54:39Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - An Overview Of 3D Object Detection [21.159668390764832]
マルチクラスオブジェクト認識を行うために,RGBデータとポイントクラウドデータの両方を用いるフレームワークを提案する。
最近リリースされたnuScenesデータセット - 大規模なデータセットには多くのデータフォーマットが含まれています - をトレーニングし、提案したアーキテクチャを評価します。
論文 参考訳(メタデータ) (2020-10-29T14:04:50Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。