論文の概要: Long-term Visual Localization with Mobile Sensors
- arxiv url: http://arxiv.org/abs/2304.07691v1
- Date: Sun, 16 Apr 2023 04:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:47:32.646528
- Title: Long-term Visual Localization with Mobile Sensors
- Title(参考訳): 移動センサを用いた長期視覚定位
- Authors: Shen Yan, Yu Liu, Long Wang, Zehong Shen, Zhen Peng, Haomin Liu,
Maojun Zhang, Guofeng Zhang, Xiaowei Zhou
- Abstract要約: そこで本稿では,GPS,コンパス,重力センサなどの携帯端末にセンサを追加することで,この課題を解決することを提案する。
また,最初のポーズで直接2D-3Dマッチングネットワークを考案し,効率的に2D-3D対応を確立できる。
提案手法といくつかの最先端ベースラインをベンチマークし,提案手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 30.839849072256435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the remarkable advances in image matching and pose estimation,
image-based localization of a camera in a temporally-varying outdoor
environment is still a challenging problem due to huge appearance disparity
between query and reference images caused by illumination, seasonal and
structural changes. In this work, we propose to leverage additional sensors on
a mobile phone, mainly GPS, compass, and gravity sensor, to solve this
challenging problem. We show that these mobile sensors provide decent initial
poses and effective constraints to reduce the searching space in image matching
and final pose estimation. With the initial pose, we are also able to devise a
direct 2D-3D matching network to efficiently establish 2D-3D correspondences
instead of tedious 2D-2D matching in existing systems. As no public dataset
exists for the studied problem, we collect a new dataset that provides a
variety of mobile sensor data and significant scene appearance variations, and
develop a system to acquire ground-truth poses for query images. We benchmark
our method as well as several state-of-the-art baselines and demonstrate the
effectiveness of the proposed approach. The code and dataset will be released
publicly.
- Abstract(参考訳): 画像マッチングとポーズ推定の著しい進歩にもかかわらず,照度,季節変化,構造変化による照会画像と参照画像の出現差が大きいため,時間変動した屋外環境におけるカメラの局在化は依然として課題である。
そこで本研究では,GPS,コンパス,重力センサなどの携帯端末にセンサを追加することで,この問題を解決することを提案する。
これらの移動センサは,画像マッチングと最終ポーズ推定における探索空間を小さくするために,適切な初期ポーズと効果的な制約を提供する。
提案手法では,既存のシステムでは面倒な2D-3Dマッチングではなく,効率的に2D-3D対応を確立できるように,直接2D-3Dマッチングネットワークを構築できる。
研究課題に対する公開データセットが存在しないため,様々なモバイルセンサデータと重要なシーンの外観変化を提供する新しいデータセットを収集し,クエリ画像のための接地ポーズを取得するシステムを開発した。
提案手法といくつかの最先端ベースラインをベンチマークし,提案手法の有効性を実証する。
コードとデータセットは公開される予定だ。
関連論文リスト
- 3D Prior is All You Need: Cross-Task Few-shot 2D Gaze Estimation [27.51272922798475]
本研究では,未確認デバイス上での2次元視線予測に事前学習した3次元視線推定ネットワークを適用することを目的とした,クロスタスクな2次元視線推定手法を提案する。
このタスクは、3Dと2Dの視線、未知の画面ポーズ、限られたトレーニングデータとのドメインギャップのため、非常に難しい。
我々は,MPIIGaze,EVE,GazeCaptureの各データセットに対して,それぞれノートパソコン,デスクトップコンピュータ,モバイルデバイス上で収集した手法を評価する。
論文 参考訳(メタデータ) (2025-02-06T13:37:09Z) - HandDGP: Camera-Space Hand Mesh Prediction with Differentiable Global Positioning [1.4515751892711464]
本稿では,2D-3D対応問題に対処するエンドツーエンドソリューションを提案する。
このソリューションは、新しい差別化可能なグローバル位置決めモジュールを通じて、カメラ空間出力からネットワークの他の部分へのバックプロパゲーションを可能にする。
いくつかのベースラインと最先端のアプローチに対する評価において、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-07-22T17:59:01Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Cross-Modal Semi-Dense 6-DoF Tracking of an Event Camera in Challenging
Conditions [29.608665442108727]
イベントベースのカメラはバイオインスパイアされた視覚センサーであり、HDR条件でよく機能し、時間分解能が高い。
本研究は、代替センサのマッピングが許された場合、純粋にイベントベースのトラッキングの実現可能性を示す。
この手法は、半密度マップとイベントの幾何学的3D-2D登録に依存しており、信頼性が高く正確なクロスモーダル追跡結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T01:48:45Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Lidar-Monocular Surface Reconstruction Using Line Segments [5.542669744873386]
LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-04-06T19:49:53Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。