論文の概要: LAPTNet: LiDAR-Aided Perspective Transform Network
- arxiv url: http://arxiv.org/abs/2211.14445v1
- Date: Mon, 14 Nov 2022 18:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 14:52:35.384151
- Title: LAPTNet: LiDAR-Aided Perspective Transform Network
- Title(参考訳): LAPTNet:LiDAR支援型パースペクティブトランスフォーメーションネットワーク
- Authors: Manuel Alejandro Diaz-Zapata (CHROMA), \"Ozg\"ur Erkent (CHROMA),
Christian Laugier (CHROMA), Jilles Dibangoye (CHROMA), David Sierra
Gonz\'alez (CHROMA)
- Abstract要約: 本稿では,LiDARとカメラ情報を融合してセマンティックグリッドを生成するアーキテクチャを提案する。
LAPTNetは、カメラプレーンの機能を、シーンの奥行き情報を予測することなく、鳥の目視に関連付けることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic grids are a useful representation of the environment around a robot.
They can be used in autonomous vehicles to concisely represent the scene around
the car, capturing vital information for downstream tasks like navigation or
collision assessment. Information from different sensors can be used to
generate these grids. Some methods rely only on RGB images, whereas others
choose to incorporate information from other sensors, such as radar or LiDAR.
In this paper, we present an architecture that fuses LiDAR and camera
information to generate semantic grids. By using the 3D information from a
LiDAR point cloud, the LiDAR-Aided Perspective Transform Network (LAPTNet) is
able to associate features in the camera plane to the bird's eye view without
having to predict any depth information about the scene. Compared to
state-of-theart camera-only methods, LAPTNet achieves an improvement of up to
8.8 points (or 38.13%) over state-of-art competing approaches for the classes
proposed in the NuScenes dataset validation split.
- Abstract(参考訳): セマンティックグリッドは、ロボットを取り巻く環境の有用な表現である。
自動運転車では、車の周囲のシーンを簡潔に表現し、ナビゲーションや衝突評価といった下流のタスクに欠かせない情報をキャプチャすることができる。
異なるセンサーからの情報は、これらのグリッドを生成するために使用できる。
RGB画像のみに依存する方法もあるが、レーダーやLiDARなどの他のセンサーからの情報を組み込む方法もある。
本稿では,LiDARとカメラ情報を融合してセマンティックグリッドを生成するアーキテクチャを提案する。
LiDARポイントクラウドからの3D情報を使用することで、LiDAR-Aided Perspective Transform Network (LAPTNet)は、カメラプレーンの機能を、シーンの奥行き情報を予測することなく、鳥の目視に関連付けることができる。
最先端のカメラ専用手法と比較して、LAPTNetはNuScenesデータセット検証の分割で提案されたクラスに対する最先端の競合するアプローチよりも最大8.8ポイント(38.13%)の改善を実現している。
関連論文リスト
- HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Vision meets mmWave Radar: 3D Object Perception Benchmark for Autonomous
Driving [30.456314610767667]
CRUW3Dデータセットには、66K同期カメラ、レーダー、LiDARフレームが含まれる。
この種のフォーマットは、カメラとレーダーの間の情報や特徴を融合させた後、機械学習モデルによりより信頼性の高い知覚結果が得られる。
論文 参考訳(メタデータ) (2023-11-17T01:07:37Z) - MaskedFusion360: Reconstruct LiDAR Data by Querying Camera Features [11.28654979274464]
自動運転アプリケーションでは、LiDARデータは3Dにおける距離に関する正確な情報を提供するが、カメラデータのセマンティック・リッチネスは欠如している。
我々は、LiDARとカメラデータを融合する新しい自己教師方式を、自動運転アプリケーションに導入する。
論文 参考訳(メタデータ) (2023-06-12T13:01:33Z) - LAPTNet-FPN: Multi-scale LiDAR-aided Projective Transform Network for
Real Time Semantic Grid Prediction [0.0]
複数のセンサからの情報を融合することにより、ロバスト性を高め、タスクの計算負荷を低減できる。
当社のマルチスケールLiDAR支援型パースペクティブトランスフォーメーションネットワークは、ポイントクラウドで利用可能な情報を用いて、画像特徴の投影をトップビュー表現に導く。
論文 参考訳(メタデータ) (2023-02-10T12:34:28Z) - Graph Neural Network and Spatiotemporal Transformer Attention for 3D
Video Object Detection from Point Clouds [94.21415132135951]
複数のフレームにおける時間情報を利用して3次元物体を検出することを提案する。
我々は,一般的なアンカーベースおよびアンカーフリー検出器に基づくアルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-26T05:16:28Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。