論文の概要: RePLAy: Remove Projective LiDAR Depthmap Artifacts via Exploiting Epipolar Geometry
- arxiv url: http://arxiv.org/abs/2407.19154v1
- Date: Sat, 27 Jul 2024 03:13:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 19:31:05.674907
- Title: RePLAy: Remove Projective LiDAR Depthmap Artifacts via Exploiting Epipolar Geometry
- Title(参考訳): RePLAy: エピポーラ幾何学の爆発による投影型LiDARデプスマップアーティファクトの除去
- Authors: Shengjie Zhu, Girish Chandar Ganesan, Abhinav Kumar, Xiaoming Liu,
- Abstract要約: 3Dセンシングは自動運転車の基本課題である。
厳密な同期と校正にもかかわらず、体系的な不整合はLiDARの射影深度マップに持続する。
このアーティファクトは、車や歩行者などの前景に誤って投影された背景のLiDARとしてしばしば反映される。
射影アーティファクトを除去するためのパラメータフリー解析ソリューションであるRePLAyを提案する。
- 参考スコア(独自算出の注目度): 10.708611595448794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D sensing is a fundamental task for Autonomous Vehicles. Its deployment often relies on aligned RGB cameras and LiDAR. Despite meticulous synchronization and calibration, systematic misalignment persists in LiDAR projected depthmap. This is due to the physical baseline distance between the two sensors. The artifact is often reflected as background LiDAR incorrectly projected onto the foreground, such as cars and pedestrians. The KITTI dataset uses stereo cameras as a heuristic solution to remove artifacts. However most AV datasets, including nuScenes, Waymo, and DDAD, lack stereo images, making the KITTI solution inapplicable. We propose RePLAy, a parameter-free analytical solution to remove the projective artifacts. We construct a binocular vision system between a hypothesized virtual LiDAR camera and the RGB camera. We then remove the projective artifacts by determining the epipolar occlusion with the proposed analytical solution. We show unanimous improvement in the State-of-The-Art (SoTA) monocular depth estimators and 3D object detectors with the artifacts-free depthmaps.
- Abstract(参考訳): 3Dセンシングは自動運転車の基本課題である。
配置はRGBカメラとLiDARに依存していることが多い。
厳密な同期と校正にもかかわらず、体系的な不整合はLiDARの射影深度マップに持続する。
これは2つのセンサー間の物理的なベースライン距離が原因である。
このアーティファクトは、車や歩行者などの前景に誤って投影された背景のLiDARとしてしばしば反映される。
KITTIデータセットは、アーティファクトを削除するためのヒューリスティックソリューションとしてステレオカメラを使用する。
しかし、nuScenes、Waymo、DDADを含むほとんどのAVデータセットにはステレオイメージが欠けており、KITTIソリューションが適用できない。
射影アーティファクトを除去するためのパラメータフリー解析ソリューションであるRePLAyを提案する。
仮想LiDARカメラとRGBカメラの両眼視システムを構築する。
次に, 提案した解析解を用いて, エピポーラ閉包を決定することにより, 射影アーティファクトを除去する。
人工物不要深度マップを用いたモノクル深度推定器と3次元物体検出器において,一様改善が認められた。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - OCTraN: 3D Occupancy Convolutional Transformer Network in Unstructured
Traffic Scenarios [0.0]
我々は2次元画像特徴を3次元占有特徴に変換するために反復アテンションを用いたトランスフォーマーアーキテクチャOCTraNを提案する。
また、LiDARの地上真実の必要性を排除し、任意のシーンにモデルを一般化するための自己教師型トレーニングパイプラインも開発している。
論文 参考訳(メタデータ) (2023-07-20T15:06:44Z) - MaskedFusion360: Reconstruct LiDAR Data by Querying Camera Features [11.28654979274464]
自動運転アプリケーションでは、LiDARデータは3Dにおける距離に関する正確な情報を提供するが、カメラデータのセマンティック・リッチネスは欠如している。
我々は、LiDARとカメラデータを融合する新しい自己教師方式を、自動運転アプリケーションに導入する。
論文 参考訳(メタデータ) (2023-06-12T13:01:33Z) - LiDAR2Map: In Defense of LiDAR-Based Semantic Map Construction Using
Online Camera Distillation [21.53150795218778]
鳥眼ビュー(BEV)の下でのセマンティックマップの構築は、自律運転において重要な役割を担っている。
本稿では,LiDARを用いたセマンティックマップ構築手法を提案する。
セマンティックマップ構築のための堅牢なマルチスケールBEV特徴を学習するBEV機能ピラミッドデコーダを導入する。
論文 参考訳(メタデータ) (2023-04-22T12:05:29Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Multi-modal 3D Human Pose Estimation with 2D Weak Supervision in
Autonomous Driving [74.74519047735916]
自動運転車(AV)における3次元ポーズ推定(HPE)は,多くの要因において他のユースケースと異なる。
他のユースケース(仮想現実、ゲーム、アニメーションなど)のために収集されたデータは、AVアプリケーションには使用できない可能性がある。
本稿では,この問題をAV設定で緩和するための最初のアプローチの1つを提案する。
論文 参考訳(メタデータ) (2021-12-22T18:57:16Z) - LiDARTouch: Monocular metric depth estimation with a few-beam LiDAR [40.98198236276633]
視覚に基づく深度推定は、自律システムにおいて重要な特徴である。
このような単分子配置では、1つまたは複数の高価なLiDARから追加の入力で濃密な深さが得られる。
本稿では,単眼カメラと軽量LiDARを組み合わせることで,距離深度を高密度に推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T12:06:31Z) - LIGA-Stereo: Learning LiDAR Geometry Aware Representations for
Stereo-based 3D Detector [80.7563981951707]
本稿では,LIGA-Stereoによるステレオ3次元検出器の学習について,LiDARに基づく検出モデルの高レベルな幾何認識表現の指導の下で提案する。
現状のステレオ検出器と比較して,車,歩行者,サイクリストの3次元検出性能は,それぞれ10.44%,5.69%,5.97%向上した。
論文 参考訳(メタデータ) (2021-08-18T17:24:40Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。