論文の概要: EVLoc: Event-based Visual Localization in LiDAR Maps via Event-Depth Registration
- arxiv url: http://arxiv.org/abs/2503.00167v1
- Date: Fri, 28 Feb 2025 20:27:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:39.734792
- Title: EVLoc: Event-based Visual Localization in LiDAR Maps via Event-Depth Registration
- Title(参考訳): EVLoc:イベントディープス登録によるLiDARマップにおけるイベントベースのビジュアルローカライゼーション
- Authors: Kuangyi Chen, Jun Zhang, Friedrich Fraundorfer,
- Abstract要約: イベントカメラはバイオインスパイアされたセンサーで、ハイダイナミックレンジや低レイテンシなどいくつかの特長がある。
既存のLiDARマップ内でのローカライズの可能性を探る。
構造的明瞭度を改善する新しいフレームベースのイベント表現を開発する。
- 参考スコア(独自算出の注目度): 13.066369438849872
- License:
- Abstract: Event cameras are bio-inspired sensors with some notable features, including high dynamic range and low latency, which makes them exceptionally suitable for perception in challenging scenarios such as high-speed motion and extreme lighting conditions. In this paper, we explore their potential for localization within pre-existing LiDAR maps, a critical task for applications that require precise navigation and mobile manipulation. Our framework follows a paradigm based on the refinement of an initial pose. Specifically, we first project LiDAR points into 2D space based on a rough initial pose to obtain depth maps, and then employ an optical flow estimation network to align events with LiDAR points in 2D space, followed by camera pose estimation using a PnP solver. To enhance geometric consistency between these two inherently different modalities, we develop a novel frame-based event representation that improves structural clarity. Additionally, given the varying degrees of bias observed in the ground truth poses, we design a module that predicts an auxiliary variable as a regularization term to mitigate the impact of this bias on network convergence. Experimental results on several public datasets demonstrate the effectiveness of our proposed method. To facilitate future research, both the code and the pre-trained models are made available online.
- Abstract(参考訳): イベントカメラは、ハイダイナミックレンジや低レイテンシなど、注目すべき特徴を持つバイオインスパイアされたセンサーで、高速な動きや極端な照明条件といった困難なシナリオの認識に非常に適している。
本稿では,既存のLiDARマップ内でのローカライズの可能性について検討する。
私たちのフレームワークは、最初のポーズの洗練に基づくパラダイムに従っています。
具体的には、まず粗い初期ポーズに基づいて2次元空間にLiDAR点を投影し、次いで2次元空間におけるLiDAR点とイベントを整列する光フロー推定ネットワークを用い、PnPソルバを用いたカメラポーズ推定を行う。
これら2つの本質的に異なるモジュラリティ間の幾何学的整合性を高めるため、構造的明瞭性を改善する新しいフレームベースのイベント表現を開発した。
さらに、基底真実のポーズで観測される様々なバイアスの度合いを考慮し、このバイアスがネットワーク収束に与える影響を軽減するために、補助変数を正規化項として予測するモジュールを設計する。
いくつかの公開データセットに対する実験結果から,提案手法の有効性が示された。
将来の研究を容易にするために、コードと事前訓練されたモデルの両方をオンラインで利用可能にしている。
関連論文リスト
- LiOn-XA: Unsupervised Domain Adaptation via LiDAR-Only Cross-Modal Adversarial Training [61.26381389532653]
LiOn-XAは、LiDAR-Only Cross-Modal (X)学習と3D LiDARポイントクラウドセマンティックセマンティックセグメンテーションのためのAdversarial Trainingを組み合わせた、教師なしドメイン適応(UDA)アプローチである。
3つの現実的適応シナリオに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-10-21T09:50:17Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry [28.606325312582218]
我々は,SLAMタスクにおける高精度かつ堅牢な状態推定を実現するために,高速かつ直接的LiDAR慣性・視覚的オドメトリーフレームワークであるFAST-LIVO2を提案する。
FAST-LIVO2はIMU、LiDAR、画像計測を逐次更新戦略で効率的に融合する。
本稿では,FAST-LIVO2のリアルタイムナビゲーション,空中マッピング,3次元モデルレンダリングの3つの応用例を示す。
論文 参考訳(メタデータ) (2024-08-26T06:01:54Z) - 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Poses as Queries: Image-to-LiDAR Map Localization with Transformers [5.704968411509063]
商用化による高精度車両のローカライゼーションは、高レベルの自動運転タスクにとって重要な技術である。
このようなクロスモーダルセンサデータ間の対応を見出すことによる推定ポーズは困難である。
本稿では,トランスフォーマーをベースとした新しいニューラルネットワークを提案し,エンドツーエンドで2次元画像を3次元LiDARマップに登録する。
論文 参考訳(メタデータ) (2023-05-07T14:57:58Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Generative Range Imaging for Learning Scene Priors of 3D LiDAR Data [3.9447103367861542]
本稿では,データレベルドメイン転送に適用可能なLiDARレンジ画像の生成モデルを提案する。
LiDAR測定がポイント・バイ・ポイント・レンジ・イメージングに基づくことから,暗黙的な画像表現に基づく生成対向ネットワークを訓練する。
本モデルの有効性と多様性を,ポイントベースおよびイメージベース・オブ・ザ・アーティファクト・ジェネレーティブ・モデルと比較した。
論文 参考訳(メタデータ) (2022-10-21T06:08:39Z) - LiDAR-aid Inertial Poser: Large-scale Human Motion Capture by Sparse
Inertial and LiDAR Sensors [38.60837840737258]
本研究では,大規模なシナリオにおいて,高精度な局所的なポーズとグローバルな軌跡を持つ3次元人間の動きを捉えるためのマルチセンサ融合法を提案する。
我々は,2段階のポーズ推定器を粗大な方法で設計し,そこでは点雲が粗大な体形状を提供し,IMU測定は局所的な動作を最適化する。
我々は,LiDAR-IMUマルチモーダルモキャップデータセット(LIPD)を長期シナリオで収集する。
論文 参考訳(メタデータ) (2022-05-30T20:15:11Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。