論文の概要: SPOT: Point Cloud Based Stereo Visual Place Recognition for Similar and Opposing Viewpoints
- arxiv url: http://arxiv.org/abs/2404.12339v1
- Date: Thu, 18 Apr 2024 17:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 18:52:16.599120
- Title: SPOT: Point Cloud Based Stereo Visual Place Recognition for Similar and Opposing Viewpoints
- Title(参考訳): SPOT:ポイントクラウドをベースとした類似および反対視点のためのステレオ視覚的位置認識
- Authors: Spencer Carmichael, Rahul Agrawal, Ram Vasudevan, Katherine A. Skinner,
- Abstract要約: Same Place Opposing Trajectory (SPOT) は、ステレオ・ビジュアル・オドメトリー(VO)によって推定される構造にのみ依存する対向VPRの手法である。
我々は、様々な照明条件下で、同様の方向と反対方向に駆動される6.7-7.6kmのルートを持つ公開データセット上でSPOTを評価する。
SPOTは、反対の視点のケースで最大91.7%のリコールを100%精度で達成し、また、全てのベースラインのテストや実行よりも高速なストレージを必要とする。
- 参考スコア(独自算出の注目度): 8.279008889455914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recognizing places from an opposing viewpoint during a return trip is a common experience for human drivers. However, the analogous robotics capability, visual place recognition (VPR) with limited field of view cameras under 180 degree rotations, has proven to be challenging to achieve. To address this problem, this paper presents Same Place Opposing Trajectory (SPOT), a technique for opposing viewpoint VPR that relies exclusively on structure estimated through stereo visual odometry (VO). The method extends recent advances in lidar descriptors and utilizes a novel double (similar and opposing) distance matrix sequence matching method. We evaluate SPOT on a publicly available dataset with 6.7-7.6 km routes driven in similar and opposing directions under various lighting conditions. The proposed algorithm demonstrates remarkable improvement over the state-of-the-art, achieving up to 91.7% recall at 100% precision in opposing viewpoint cases, while requiring less storage than all baselines tested and running faster than all but one. Moreover, the proposed method assumes no a priori knowledge of whether the viewpoint is similar or opposing, and also demonstrates competitive performance in similar viewpoint cases.
- Abstract(参考訳): 帰還旅行中、反対の視点から場所を認識することは、人間のドライバーにとって共通の経験である。
しかし、180度回転以下の視野カメラを備えた類似ロボティクス能力、視覚的位置認識(VPR)は、達成が困難であることが証明されている。
この問題に対処するために,ステレオビジュアル・オドメトリー(VO)によって推定される構造にのみ依存する対向VPR技術であるSame Place Opposing Trajectory (SPOT)を提案する。
この手法は最近のライダーディスクリプタの進歩を延長し、新しい2重距離行列列マッチング法を用いる。
我々は、様々な照明条件下で、同様の方向と反対方向に駆動される6.7-7.6kmのルートを持つ公開データセット上でSPOTを評価する。
提案アルゴリズムは、現状よりも顕著に改善され、反対の視点の場合、100%の精度で91.7%のリコールが達成される一方で、全てのベースラインのテストや実行よりも高速なストレージを必要とする。
さらに,提案手法は,視点が類似しているか否かの事前知識を前提とせず,類似した視点の場合の競合性能を示す。
関連論文リスト
- Range and Bird's Eye View Fused Cross-Modal Visual Place Recognition [10.086473917830112]
VPR(Image-to-point cloud cross-modal Visual Place Recognition)は、クエリがRGBイメージであり、データベースサンプルがLiDARポイントクラウドである、難しいタスクである。
本稿では,範囲(またはRGB)画像とBird's Eye View(BEV)画像からの情報を効果的に組み合わせた,革新的な初期検索と再ランク手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T12:29:26Z) - Open-RadVLAD: Fast and Robust Radar Place Recognition [18.27692163756045]
レーダー位置認識は、しばしばライブスキャンをベクトルとして符号化し、車両が以前訪れた場所にあることを認識するために、このベクトルをデータベースにマッチさせる。
360度のレーダーでは、回転は方位を横切ることで容易に処理される。
計算効率は極表現のみを用いる。
論文 参考訳(メタデータ) (2024-01-27T10:55:55Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - MixVPR: Feature Mixing for Visual Place Recognition [3.6739949215165164]
視覚的場所認識(VPR)は、モバイルロボティクスと自律運転の重要な部分である。
我々は,事前学習したバックボーンから特徴マップをグローバルな特徴の集合として取り出す,新しい総合的特徴集約技術であるMixVPRを紹介する。
複数の大規模ベンチマークで広範な実験を行い,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-03T19:24:03Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - JPerceiver: Joint Perception Network for Depth, Pose and Layout
Estimation in Driving Scenes [75.20435924081585]
JPerceiverは、モノクロビデオシーケンスからスケール認識深度とVOとBEVレイアウトを同時に推定することができる。
クロスビュー幾何変換(CGT)を利用して、絶対スケールを道路レイアウトから奥行きとVOに伝播させる。
Argoverse、Nuscenes、KITTIの実験は、上記の3つのタスクの全てにおいて、既存のメソッドよりもJPerceiverの方が優れていることを示している。
論文 参考訳(メタデータ) (2022-07-16T10:33:59Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Radar Camera Fusion via Representation Learning in Autonomous Driving [4.278336455989584]
レーダーカメラ融合の成功の鍵は、正確なデータ関連付けです。
従来のルールに基づくアソシエーション手法は、難解なシナリオやコーナーケースの障害でパフォーマンスが低下するおそれがある。
本稿では,rad-camアソシエーションを深層表現学習を通じて解決し,機能レベルのインタラクションとグローバル推論を検討する。
論文 参考訳(メタデータ) (2021-03-14T01:32:03Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。