論文の概要: Locking On: Leveraging Dynamic Vehicle-Imposed Motion Constraints to
Improve Visual Localization
- arxiv url: http://arxiv.org/abs/2306.17529v1
- Date: Fri, 30 Jun 2023 10:34:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:53:51.969030
- Title: Locking On: Leveraging Dynamic Vehicle-Imposed Motion Constraints to
Improve Visual Localization
- Title(参考訳): locking on: 動的車両入力動作制約を活用した視覚定位の改善
- Authors: Stephen Hausler, Sourav Garg, Punarjay Chakravarty, Shubham
Shrivastava, Ankit Vora, Michael Milford
- Abstract要約: ほとんどの6-DoFローカライゼーションSLAMシステムは静的ランドマークを使用するが、典型的なパイプラインに組み込むことができないため、動的オブジェクトを無視する。
本研究では,自律走行車に制約情報を提供するために動的車両を用いた中間地点を提案する。
当社のシステムはFord AVデータセット上で約35%の時間でアクティブであり、制約検出がアクティブになると特にローカライゼーションが向上する。
- 参考スコア(独自算出の注目度): 29.828201168816243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most 6-DoF localization and SLAM systems use static landmarks but ignore
dynamic objects because they cannot be usefully incorporated into a typical
pipeline. Where dynamic objects have been incorporated, typical approaches have
attempted relatively sophisticated identification and localization of these
objects, limiting their robustness or general utility. In this research, we
propose a middle ground, demonstrated in the context of autonomous vehicles,
using dynamic vehicles to provide limited pose constraint information in a
6-DoF frame-by-frame PnP-RANSAC localization pipeline. We refine initial pose
estimates with a motion model and propose a method for calculating the
predicted quality of future pose estimates, triggered based on whether or not
the autonomous vehicle's motion is constrained by the relative frame-to-frame
location of dynamic vehicles in the environment. Our approach detects and
identifies suitable dynamic vehicles to define these pose constraints to modify
a pose filter, resulting in improved recall across a range of localization
tolerances from $0.25m$ to $5m$, compared to a state-of-the-art baseline single
image PnP method and its vanilla pose filtering. Our constraint detection
system is active for approximately $35\%$ of the time on the Ford AV dataset
and localization is particularly improved when the constraint detection is
active.
- Abstract(参考訳): ほとんどの6-DoFローカライゼーションとSLAMシステムは静的ランドマークを使用するが、典型的なパイプラインに組み込むことができないため、動的オブジェクトを無視する。
動的オブジェクトが組み込まれている場合、典型的なアプローチは、それらのオブジェクトの比較的洗練された識別とローカライズを試みた。
本研究では,6フレーム・バイ・フレームのPnP-RANSACローカライゼーションパイプラインにおいて,動的車両を用いて限定的なポーズ制約情報を提供する中盤を提案する。
動きモデルを用いて初期ポーズ推定を洗練し,環境中の動的車両の相対的フレーム間位置によって自律走行車両の動作が制約されるか否かに基づいて,将来のポーズ推定の予測品質を算出する手法を提案する。
提案手法は,ポーズフィルタを修正するためのポーズ制約を定義するのに適した動的車両を検出し,その結果,最先端のベースライン画像PnP法とバニラポーズフィルタと比較して,ローカライズ耐性を0.25m$から5m$に改善した。
当社の制約検出システムはFord AVデータセット上で約35 %の時間でアクティブであり、制約検出がアクティブである場合には特にローカライゼーションが向上する。
関連論文リスト
- DynaVINS++: Robust Visual-Inertial State Estimator in Dynamic Environments by Adaptive Truncated Least Squares and Stable State Recovery [11.37707868611451]
我々はmboxtextitDynaVINS++と呼ばれる堅牢なVINSフレームワークを提案する。
我々のアプローチは、突然の動的オブジェクトを含む動的環境における有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-20T12:13:45Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - Vanishing-Point-Guided Video Semantic Segmentation of Driving Scenes [70.08318779492944]
私たちは、より効果的なセグメンテーションのために消滅点(VP)を最初に利用しました。
当社の新しいVSS用ネットワークであるVPSegには,この静的および動的VPプリエントを正確に利用する2つのモジュールが組み込まれています。
論文 参考訳(メタデータ) (2024-01-27T01:01:58Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - DL-SLOT: Dynamic Lidar SLAM and Object Tracking Based On Graph
Optimization [2.889268075288957]
エゴ位置推定と動的物体追跡は、自律運転システムにおける2つの重要な問題である。
本稿では,動的Lidar SLAMとオブジェクト追跡手法であるDL-SLOTを提案する。
我々はこのフレームワークでSLAMとオブジェクトトラッキングを同時に実行し、高ダイナミックな道路シナリオにおけるSLAMの堅牢性と精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-02-23T11:22:43Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。