論文の概要: Enhanced Low-resolution LiDAR-Camera Calibration Via Depth Interpolation
and Supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.03932v1
- Date: Tue, 8 Nov 2022 01:12:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 17:05:10.472284
- Title: Enhanced Low-resolution LiDAR-Camera Calibration Via Depth Interpolation
and Supervised Contrastive Learning
- Title(参考訳): 低分解能LiDARカメラキャリブレーションの深度補間と教師付きコントラスト学習への応用
- Authors: Zhikang Zhang, Zifan Yu, Suya You, Raghuveer Rao, Sanjeev Agarwal,
Fengbo Ren
- Abstract要約: そこで本研究では,雑音に耐性のある特徴を学習するために,深度を適用して点密度を増大させ,コントラスト学習を指導することを提案する。
RELLIS-3D実験により,32チャンネルのLiDAR点雲データに対して平均絶対回転・翻訳誤差0.15cm/0.33°を達成した。
- 参考スコア(独自算出の注目度): 9.385436076194491
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Motivated by the increasing application of low-resolution LiDAR recently, we
target the problem of low-resolution LiDAR-camera calibration in this work. The
main challenges are two-fold: sparsity and noise in point clouds. To address
the problem, we propose to apply depth interpolation to increase the point
density and supervised contrastive learning to learn noise-resistant features.
The experiments on RELLIS-3D demonstrate that our approach achieves an average
mean absolute rotation/translation errors of 0.15cm/0.33\textdegree on
32-channel LiDAR point cloud data, which significantly outperforms all
reference methods.
- Abstract(参考訳): 近年,低分解能LiDARの応用が進み,低分解能LiDARカメラキャリブレーションの問題が注目されている。
主な課題は、点雲のスパーシティとノイズの2つだ。
この問題に対処するために,点密度向上のための奥行き補間と,耐雑音特性学習のための教師付きコントラスト学習を提案する。
RELLIS-3D実験では,32チャンネルのLiDAR点雲データに対して平均絶対回転/変換誤差0.15cm/0.33\textdegreeを達成し,全基準法より大幅に優れていた。
関連論文リスト
- 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - Ray Denoising: Depth-aware Hard Negative Sampling for Multi-view 3D
Object Detection [46.041193889845474]
レイデノジング(Ray Denoising)は、カメラ線に沿って戦略的にサンプリングすることで検出精度を高める革新的な手法である。
Ray Denoisingはプラグイン・アンド・プレイモジュールとして設計されており、DETR方式のマルチビュー3D検出器と互換性がある。
NuScenesデータセット上の最先端のStreamPETR法よりも平均精度(mAP)が1.9%向上した。
論文 参考訳(メタデータ) (2024-02-06T02:17:44Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - LiDAR Distillation: Bridging the Beam-Induced Domain Gap for 3D Object
Detection [96.63947479020631]
多くの現実世界の応用において、大量生産されたロボットや車両が使用するLiDARポイントは通常、大規模な公開データセットよりもビームが少ない。
異なるLiDARビームによって誘導される領域ギャップをブリッジして3次元物体検出を行うLiDAR蒸留法を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:59:02Z) - 3D Vehicle Detection Using Camera and Low-Resolution LiDAR [6.293059137498174]
低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
論文 参考訳(メタデータ) (2021-05-04T21:08:20Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - LiDAR Data Enrichment Using Deep Learning Based on High-Resolution
Image: An Approach to Achieve High-Performance LiDAR SLAM Using Low-cost
LiDAR [15.0719696353702]
本稿では、カメラからの高解像度画像を用いて、低コストの16チャンネルLiDARから生の3D点雲を濃縮する。
ERFNetは、生のスパース3D点雲の助けを借りて画像を分割するために使用される。
スパース畳み込みニューラルネットワークは、生のスパース3D点雲に基づいて密度の高い点雲を予測するために使用される。
論文 参考訳(メタデータ) (2020-08-09T09:20:47Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。