論文の概要: A Real-Time Fusion Framework for Long-term Visual Localization
- arxiv url: http://arxiv.org/abs/2210.09757v1
- Date: Tue, 18 Oct 2022 11:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:51:04.237518
- Title: A Real-Time Fusion Framework for Long-term Visual Localization
- Title(参考訳): 長期視覚定位のためのリアルタイム融合フレームワーク
- Authors: Yuchen Yang, Xudong Zhang, Shuang Gao, Jixiang Wan, Yishan Ping, Yuyue
Liu, Jijunnan Li, Yandong Guo
- Abstract要約: 本稿では,グローバルなポーズ推定とローカルなポーズ推定を融合した,効率的なクライアントサーバ・ビジュアルローカライゼーションアーキテクチャを提案する。
4SeasonsとOpenLORISの2つの典型的なオープンソースベンチマークで評価を行った。
- 参考スコア(独自算出の注目度): 7.606637557727453
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual localization is a fundamental task that regresses the 6 Degree Of
Freedom (6DoF) poses with image features in order to serve the high precision
localization requests in many robotics applications. Degenerate conditions like
motion blur, illumination changes and environment variations place great
challenges in this task. Fusion with additional information, such as sequential
information and Inertial Measurement Unit (IMU) inputs, would greatly assist
such problems. In this paper, we present an efficient client-server visual
localization architecture that fuses global and local pose estimations to
realize promising precision and efficiency. We include additional geometry
hints in mapping and global pose regressing modules to improve the measurement
quality. A loosely coupled fusion policy is adopted to leverage the computation
complexity and accuracy. We conduct the evaluations on two typical open-source
benchmarks, 4Seasons and OpenLORIS. Quantitative results prove that our
framework has competitive performance with respect to other state-of-the-art
visual localization solutions.
- Abstract(参考訳): 視覚のローカライゼーションは、6自由度 (6dof) のポーズをイメージ機能でレグレッションする基本的なタスクであり、多くのロボティクスアプリケーションで高精度なローカライゼーション要求を提供する。
動きのぼやけ、照明の変化、環境の変化といった変性条件は、このタスクにおいて大きな課題となる。
逐次情報や慣性測定ユニット(IMU)の入力などの追加情報との融合は、そのような問題を大いに助けた。
本稿では、グローバルおよびローカルなポーズ推定を融合して、精度と効率性を実現する効率的なクライアントサーバのビジュアルローカライゼーションアーキテクチャを提案する。
マッピングにおける幾何学的ヒントや、測定品質を改善するためにグローバルなポーズ回帰モジュールが含まれる。
計算複雑性と精度を活用するために、疎結合の融合ポリシーが採用されている。
典型的なオープンソースベンチマークである4SeasonsとOpenLORISで評価を行う。
定量的な結果は、我々のフレームワークが、他の最先端の視覚的ローカライゼーションソリューションと競合する性能を持っていることを証明している。
関連論文リスト
- Swarm Intelligence in Geo-Localization: A Multi-Agent Large Vision-Language Model Collaborative Framework [51.26566634946208]
smileGeoは、新しい視覚的ジオローカライゼーションフレームワークである。
エージェント間のコミュニケーションによって、SmithGeoはこれらのエージェントの固有の知識と、検索された情報を統合する。
その結果,本手法は現在の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T03:31:30Z) - HiRes-LLaVA: Restoring Fragmentation Input in High-Resolution Large Vision-Language Models [96.76995840807615]
HiRes-LLaVAは、元の文脈情報や幾何学的情報を変更することなく、高解像度入力のサイズを処理するように設計された新しいフレームワークである。
HiRes-LLaVAは、2つの革新的なコンポーネントで構成されている: (i)スライスしたパッチを元の形式に再構築し、ダウンアップサンプリング層と畳み込み層を通じてグローバルとローカルの両方の特徴を効率的に抽出するSliceRestoreアダプタ、(ii)自分自身に基づいてビジョントークンを圧縮するセルフマイニングサンプリング。
論文 参考訳(メタデータ) (2024-07-11T17:42:17Z) - ELGC-Net: Efficient Local-Global Context Aggregation for Remote Sensing Change Detection [65.59969454655996]
本稿では,変化領域を正確に推定するために,リッチな文脈情報を利用する効率的な変化検出フレームワークELGC-Netを提案する。
提案するELGC-Netは、リモートセンシング変更検出ベンチマークにおいて、最先端の性能を新たに設定する。
また,ELGC-Net-LWも導入した。
論文 参考訳(メタデータ) (2024-03-26T17:46:25Z) - CurriculumLoc: Enhancing Cross-Domain Geolocalization through
Multi-Stage Refinement [11.108860387261508]
ビジュアルジオローカライゼーションはコスト効率が高くスケーラブルなタスクであり、未知の場所で撮影された1つ以上のクエリイメージとジオタグ付き参照イメージのセットをマッチングする。
我々は,グローバルな意味認識と局所的幾何学的検証を備えたキーポイント検出と記述法であるCurriculumLocを開発した。
我々は、ALTOで62.6%と94.5%の新しいハイリコール@1スコアをそれぞれ2つの異なる距離で達成した。
論文 参考訳(メタデータ) (2023-11-20T08:40:01Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - Remote Sensing Cross-Modal Text-Image Retrieval Based on Global and
Local Information [15.32353270625554]
リモートセンシング(RS)画像の高速かつ柔軟な情報抽出を可能にするため,クロスモーダルリモートセンシングテキスト画像検索(RSCTIR)は近年,緊急な研究ホットスポットとなっている。
まず,グローバル・ローカル情報(GaLR)に基づく新しいRSCTIRフレームワークを提案し,多レベル情報ダイナミックフュージョン(MIDF)モジュールを設計し,異なるレベルの機能を効果的に統合する。
公開データセットの実験は、RSCTIRタスク上でのGaLR法の最先端性能を強く実証している。
論文 参考訳(メタデータ) (2022-04-21T03:18:09Z) - Retrieval and Localization with Observation Constraints [12.010135672015704]
RLOCSと呼ばれる視覚的再局在化手法を提案する。
画像検索、意味整合性、幾何学的検証を組み合わせて正確な推定を行う。
本手法は, ローカライゼーションベンチマークにおいて多くの性能向上を実現している。
論文 参考訳(メタデータ) (2021-08-19T06:14:33Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。