論文の概要: Evaluation of Cross-View Matching to Improve Ground Vehicle Localization
with Aerial Perception
- arxiv url: http://arxiv.org/abs/2003.06515v4
- Date: Sun, 15 Nov 2020 22:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 02:24:35.796893
- Title: Evaluation of Cross-View Matching to Improve Ground Vehicle Localization
with Aerial Perception
- Title(参考訳): 空中知覚による地上車両位置推定改善のためのクロスビューマッチングの評価
- Authors: Deeksha Dixit, Surabhi Verma, Pratap Tokekar
- Abstract要約: クロスビューマッチング(クロスビューマッチング、cross-view matching)とは、あるクエリーグラウンドビュー画像の最も近いマッチングを、航空画像のデータベースから検索する問題を指す。
本稿では,より長い軌道上での地上車両の位置決め作業に対するクロスビューマッチングの評価を行う。
- 参考スコア(独自算出の注目度): 17.349420462716886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-view matching refers to the problem of finding the closest match for a
given query ground view image to one from a database of aerial images. If the
aerial images are geotagged, then the closest matching aerial image can be used
to localize the query ground view image. Due to the recent success of deep
learning methods, several cross-view matching techniques have been proposed.
These approaches perform well for the matching of isolated query images.
However, their evaluation over a trajectory is limited. In this paper, we
evaluate cross-view matching for the task of localizing a ground vehicle over a
longer trajectory. We treat these cross-view matches as sensor measurements
that are fused using a particle filter. We evaluate the performance of this
method using a city-wide dataset collected in a photorealistic simulation by
varying four parameters: height of aerial images, the pitch of the aerial
camera mount, FOV of the ground camera, and the methodology of fusing
cross-view measurements in the particle filter. We also report the results
obtained using our pipeline on a real-world dataset collected using Google
Street View and satellite view APIs.
- Abstract(参考訳): クロスビューマッチング(cross-view matching)とは、与えられた問合せグランドビュー画像のデータベースから最も近いマッチングを見つける問題である。
航空画像がジオタグされている場合、最も近い航空画像を使用して、クエリグラウンドビューイメージをローカライズすることができる。
近年のディープラーニング手法の成功により,複数のクロスビューマッチング手法が提案されている。
これらのアプローチは、孤立したクエリ画像のマッチングにうまく機能する。
しかし、軌道に対する評価は限られている。
本稿では,より長い軌道上での地上車両の位置決め作業に対するクロスビューマッチングの評価を行う。
これらのクロスビューマッチングを粒子フィルタを用いて融合したセンサ測定として扱う。
本手法は, 空中画像の高さ, 空中カメラマウントのピッチ, 地上カメラのfov, 粒子フィルタのクロスビュー計測を活用した手法の4つのパラメータを用いて, フォトリアリスティックシミュレーションで収集した都市全体のデータセットを用いて性能評価を行う。
また,Googleストリートビューと衛星ビューAPIを用いて収集した実世界のデータセット上で,パイプラインを用いて得られた結果を報告する。
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Learning Dense Flow Field for Highly-accurate Cross-view Camera
Localization [15.89357790711828]
本稿では,衛星画像に対する地上画像に対する3DFカメラのポーズ推定の問題に対処する。
地上画像と衛星画像のペアにおいて,高密度な画素単位の流れ場を学習する手法を提案する。
提案手法は,KITTI,Ford multi-AV,VIGOR,Oxford RobotCarデータセットにおいて,中央値のローカライゼーション誤差を89%,19%,80%,35%削減する。
論文 参考訳(メタデータ) (2023-09-27T10:26:26Z) - Render-and-Compare: Cross-View 6 DoF Localization from Noisy Prior [17.08552155321949]
本研究では,従来の地上レベルの設定を超えて,空中から地上へのクロスビューのローカライゼーションを活用することを提案する。
研究対象の公開データセットは存在しないため、スマートフォンやドローンからのさまざまなクロスビュー画像を提供する新しいデータセットを収集します。
そこで我々は,検索画像の地味なポーズを半自動で取得するシステムを開発した。
論文 参考訳(メタデータ) (2023-02-13T11:43:47Z) - Uncertainty-aware Vision-based Metric Cross-view Geolocalization [25.87104194833264]
地上画像と空中画像を用いて車両のポーズの確率分布を予測するエンド・ツー・エンドの微分モデルを提案する。
テストエリアからの地上データや空中データなしでも、最先端の技術を大きなマージンで改善する。
論文 参考訳(メタデータ) (2022-11-22T10:23:20Z) - Cross-View Image Sequence Geo-localization [6.555961698070275]
クロスビュージオローカライゼーションは,クエリ基底画像のGPS位置を推定することを目的としている。
最近のアプローチでは、パノラマ画像を用いて視界範囲を拡大している。
本研究では、フィールド-オフ-ビューの限られた画像のシーケンスで動作する、最初のクロスビューなジオローカライズ手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T19:46:18Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - CroCo: Cross-Modal Contrastive learning for localization of Earth
Observation data [62.96337162094726]
地上のLiDAR点雲をリモートセンシング画像上にローカライズすることに興味がある。
本稿では,DEMと高分解能光学画像に基づいて学習を行うコントラスト学習手法を提案する。
ベストシナリオは、トップ1スコア0.71、トップ5スコア0.81を得る。
論文 参考訳(メタデータ) (2022-04-14T15:55:00Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Leveraging Photogrammetric Mesh Models for Aerial-Ground Feature Point
Matching Toward Integrated 3D Reconstruction [19.551088857830944]
地上・地上画像の統合は, 都市環境における表面の再構築を効果的に進めるためのアプローチとして証明されている。
幾何認識による画像補正に基づく従来の研究により,この問題は緩和された。
地上画像マッチングにフォトグラムメッシュモデルを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T01:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。