論文の概要: VVLoc: Prior-free 3-DoF Vehicle Visual Localization
- arxiv url: http://arxiv.org/abs/2602.00810v1
- Date: Sat, 31 Jan 2026 16:37:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.411355
- Title: VVLoc: Prior-free 3-DoF Vehicle Visual Localization
- Title(参考訳): VVLoc:プリフリーの3DF車両の視覚的位置決め
- Authors: Ze Huang, Zhongyang Xiao, Mingliang Song, Longan Yang, Hongyuan Yuan, Li Sun,
- Abstract要約: マルチカメラシステムを用いたトポロジカルおよび計量車両のローカライゼーションを同時に達成するために,単一ニューラルネットワークを用いた統一パイプラインを提案する。
VVLocはまず、視覚的観察間の地理的近さを評価し、マッチング戦略を用いて相対的な距離ポーズを推定すると同時に、信頼度も提供する。
VVLocの評価は、公開されているデータセットだけでなく、より困難な自己コンパイルデータセット上でも行います。
- 参考スコア(独自算出の注目度): 6.151313455860856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localization is a critical technology in autonomous driving, encompassing both topological localization, which identifies the most similar map keyframe to the current observation, and metric localization, which provides precise spatial coordinates. Conventional methods typically address these tasks independently, rely on single-camera setups, and often require additional 3D semantic or pose priors, while lacking mechanisms to quantify the confidence of localization results, making them less feasible for real industrial applications. In this paper, we propose VVLoc, a unified pipeline that employs a single neural network to concurrently achieve topological and metric vehicle localization using multi-camera system. VVLoc first evaluates the geo-proximity between visual observations, then estimates their relative metric poses using a matching strategy, while also providing a confidence measure. Additionally, the training process for VVLoc is highly efficient, requiring only pairs of visual data and corresponding ground-truth poses, eliminating the need for complex supplementary data. We evaluate VVLoc not only on the publicly available datasets, but also on a more challenging self-collected dataset, demonstrating its ability to deliver state-of-the-art localization accuracy across a wide range of localization tasks.
- Abstract(参考訳): ローカライゼーションは自律運転において重要な技術であり、トポロジカルなローカライゼーション、現在の観測と最もよく似たマップキーフレームの同定、正確な空間座標を提供するメートル法的ローカライゼーションの両方を含んでいる。
従来の手法では、これらのタスクを独立して処理し、単一カメラのセットアップに依存し、しばしば追加の3Dセマンティクスやプリミティブを必要とするが、ローカライゼーション結果の信頼性を定量化するためのメカニズムが欠如しており、実際の産業アプリケーションでは実現不可能である。
本稿では,VVLocを提案する。VVLocは1つのニューラルネットワークを用いて,マルチカメラシステムを用いたトポロジカルおよび計量車両のローカライゼーションを同時に実現する統一パイプラインである。
VVLocはまず、視覚的観察間の地理的近視性を評価し、マッチング戦略を用いて相対的距離のポーズを推定すると同時に、信頼度も提供する。
さらに、VVLocのトレーニングプロセスは非常に効率的で、視覚データとそれに対応する地味なポーズのみを必要とするため、複雑な補足データを必要としない。
我々は、VVLocを公開データセットだけでなく、より困難な自己コンパイルデータセット上で評価し、さまざまなローカライゼーションタスクに対して最先端のローカライゼーション精度を提供する能力を示している。
関連論文リスト
- Generative MIMO Beam Map Construction for Location Recovery and Beam Tracking [67.65578956523403]
本稿では,スパースチャネル状態情報(CSI)から位置ラベルを直接復元する生成フレームワークを提案する。
生のCSIを直接格納する代わりに、小型の低次元無線地図の埋め込みを学び、生成モデルを利用して高次元CSIを再構築する。
数値実験により,NLOSシナリオにおける局所化精度が30%以上向上し,20%のキャパシティゲインが得られることが示された。
論文 参考訳(メタデータ) (2025-11-21T07:25:49Z) - Object Detection as an Optional Basis: A Graph Matching Network for Cross-View UAV Localization [17.908597896653045]
本稿では,対象物検出によるマップマッチングを行うUAVローカライゼーションフレームワークを提案する。
典型的なパイプラインでは、UAVの視覚的ローカライゼーションは画像検索の問題として定式化されている。
本手法は, グラフベースノード類似度測定法を用いて, 高精度な検索とローカライズ性能を実現する。
論文 参考訳(メタデータ) (2025-11-04T11:25:31Z) - S-BEVLoc: BEV-based Self-supervised Framework for Large-scale LiDAR Global Localization [34.79060534627474]
S-BEVLocは、LiDARグローバルローカライゼーションのための鳥眼ビュー(BEV)に基づく新しいフレームワークである。
我々は、キーポイント中心のBEVパッチ間の既知の地理的距離を利用して、単一のBEV画像からトレーニング三重項を構築する。
本研究では,S-BEVLocが位置認識,ループ閉鎖,グローバルなローカライゼーションタスクにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2025-09-11T02:48:06Z) - Without Paired Labeled Data: End-to-End Self-Supervised Learning for Drone-view Geo-Localization [20.603433987118837]
ドローンビュージオローカライゼーション(DVGL)は、GPSタグ付き衛星画像を取得することで、ドローンの正確なローカライゼーションを実現することを目的としている。
既存の手法は、教師あり学習のために、厳密にペアリングされたドローン衛星画像に大きく依存している。
浅いバックボーンネットワークを用いたエンドツーエンドの自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T02:53:08Z) - Unbiased Region-Language Alignment for Open-Vocabulary Dense Prediction [80.67150791183126]
事前訓練された視覚言語モデル(VLM)は、印象的なゼロショット認識能力を示したが、それでも高密度予測タスクでは性能が劣っている。
提案するDenseVLMは,非バイアスの領域言語アライメントを,強力な事前学習型VLM表現から学習するためのフレームワークである。
DenseVLMは、オープン語彙オブジェクト検出および画像分割法において、元のVLMを直接置き換えることができることを示す。
論文 参考訳(メタデータ) (2024-12-09T06:34:23Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - UAVD4L: A Large-Scale Dataset for UAV 6-DoF Localization [14.87295056434887]
局所化のための大規模6-DoF UAVデータセット(UAVD4L)を提案する。
オフライン合成データ生成とオンラインビジュアルローカライゼーションからなる2段階6-DoFローカライゼーションパイプライン(UAVLoc)を開発した。
新しいデータセットの結果は,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-01-11T15:19:21Z) - Self-supervised Learning of Contextualized Local Visual Embeddings [0.0]
Contextualized Local Visual Embeddings (CLoVE) は、密集した予測タスクに適した表現を学習する自己教師型畳み込み方式である。
CLoVEの事前訓練された表現を複数のデータセットでベンチマークする。
CLOVEは、CNNベースのアーキテクチャに対して、下流の4つの密集した予測タスクで最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2023-10-01T00:13:06Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。