論文の概要: Wide-Area Geolocalization with a Limited Field of View Camera
- arxiv url: http://arxiv.org/abs/2209.11854v2
- Date: Thu, 18 May 2023 14:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:51:36.800347
- Title: Wide-Area Geolocalization with a Limited Field of View Camera
- Title(参考訳): 視野限定型カメラによる広域地すべり化
- Authors: Lena M. Downes, Ted J. Steiner, Rebecca L. Russell, and Jonathan P.
How
- Abstract要約: GPSの補足または置換であるクロスビュージオローカライゼーションは、地上カメラから撮影した画像と衛星や航空機から撮影した画像とをマッチングすることにより、検索エリア内のエージェントをローカライズする。
ReWAGは、オドメトリーと90度のFOVカメラだけで、GPSを付加した環境で、移動体エージェントをグローバルにローカライズできるニューラルネットワークとパーティクルフィルタシステムである。
- 参考スコア(独自算出の注目度): 33.34809839268686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-view geolocalization, a supplement or replacement for GPS, localizes an
agent within a search area by matching images taken from a ground-view camera
to overhead images taken from satellites or aircraft. Although the viewpoint
disparity between ground and overhead images makes cross-view geolocalization
challenging, significant progress has been made assuming that the ground agent
has access to a panoramic camera. For example, our prior work (WAG) introduced
changes in search area discretization, training loss, and particle filter
weighting that enabled city-scale panoramic cross-view geolocalization.
However, panoramic cameras are not widely used in existing robotic platforms
due to their complexity and cost. Non-panoramic cross-view geolocalization is
more applicable for robotics, but is also more challenging. This paper presents
Restricted FOV Wide-Area Geolocalization (ReWAG), a cross-view geolocalization
approach that generalizes WAG for use with standard, non-panoramic ground
cameras by creating pose-aware embeddings and providing a strategy to
incorporate particle pose into the Siamese network. ReWAG is a neural network
and particle filter system that is able to globally localize a mobile agent in
a GPS-denied environment with only odometry and a 90 degree FOV camera,
achieving similar localization accuracy as what WAG achieved with a panoramic
camera and improving localization accuracy by a factor of 100 compared to a
baseline vision transformer (ViT) approach. A video highlight that demonstrates
ReWAG's convergence on a test path of several dozen kilometers is available at
https://youtu.be/U_OBQrt8qCE.
- Abstract(参考訳): GPSの補足または置換であるクロスビュージオローカライゼーションは、地上カメラから撮影した画像と衛星や航空機から撮影した画像とをマッチングすることにより、検索エリア内のエージェントをローカライズする。
地表面画像と地表面画像との視線差は、地表面の地形化を難しくするが、地表面のエージェントがパノラマカメラにアクセスできると仮定すると、大きな進歩が見られる。
例えば、我々の以前の研究(WAG)では、都市規模のパノラマ・クロスビュー・ジオローカライゼーションを可能にする探索領域の離散化、トレーニング損失、粒子フィルタ重み付けが導入された。
しかし、パノラマカメラはその複雑さとコストのために既存のロボットプラットフォームでは広く使われていない。
非パノラマ・クロスビュー・ジオローカライゼーションはロボット工学にも適用できるが、さらに難しい。
提案するRestricted FOV Wide-Area Geolocalization (ReWAG)は,標準の非パノラマ地上カメラを用いてWAGを一般化し,ポーズ対応の埋め込みを作成し,シムズネットワークに粒子ポーズを組み込む戦略を提供する。
ReWAGは、オドメトリーと90度のFOVカメラのみで、GPSで移動エージェントをグローバルにローカライズすることができ、パノラマカメラでWAGが達成したものと同じようなローカライズ精度を実現し、ベースラインビジョントランスフォーマー(ViT)アプローチと比較して100倍のローカライズ精度を向上させることができるニューラルネットワークとパーティクルフィルタシステムである。
ReWAGの数十kmのテストパスへの収束を示すビデオハイライトがhttps://youtu.be/U_OBQrt8qCEで公開されている。
関連論文リスト
- Adapting Fine-Grained Cross-View Localization to Areas without Fine Ground Truth [56.565405280314884]
本稿では,GTの微細化を伴わないターゲット領域の画像のみを活用することにより,新たなターゲット領域におけるトレーニングモデルの性能向上に焦点をあてる。
本稿では,知識の自己蒸留に基づく弱教師付き学習手法を提案する。
提案手法は,最近の2つのベンチマークモデルを用いて検証した。
論文 参考訳(メタデータ) (2024-06-01T15:58:35Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - A Gis Aided Approach for Geolocalizing an Unmanned Aerial System Using
Deep Learning [0.4297070083645048]
本稿では,GPS信号の劣化や拒否時にUASをジオローカライズする手法を提案する。
UASは、プラットフォームが飛ぶとリアルタイム画像を取得することができる、下向きのカメラをプラットフォーム上に備えているので、ジオローカライゼーションを実現するために、最新のディープラーニング技術を適用します。
我々は,OpenStreetMap (OSM) からGIS情報を抽出し,意味的に一致した特徴をビルディングクラスとランドスケープクラスに分割する。
論文 参考訳(メタデータ) (2022-08-25T17:51:15Z) - Where in the World is this Image? Transformer-based Geo-localization in
the Wild [48.69031054573838]
世界各地で撮影された地上レベルのRGB画像から地理的位置(ジオローカライゼーション)を予測することは、非常に難しい問題です。
画像全体の細部を網羅する統合型デュアルブランチトランスネットワークであるTransLocatorを提案する。
我々は、Im2GPS、Im2GPS3k、YFCC4k、YFCC26kの4つのベンチマークデータセットでTransLocatorを評価し、5.5%、14.1%、4.9%、9.9%の大陸レベルの精度改善を得た。
論文 参考訳(メタデータ) (2022-04-29T03:27:23Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - Co-visual pattern augmented generative transformer learning for
automobile geo-localization [12.449657263683337]
クロスビュージオローカライゼーション(CVGL)は、地上カメラの地理的位置を、巨大なジオタグ付き空中画像とマッチングすることによって推定することを目的としている。
CVGLのための相互生成型トランスフォーマー学習(MGTL)という,トランスフォーマーと組み合わせたクロスビュー知識生成技術を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T07:29:02Z) - City-wide Street-to-Satellite Image Geolocalization of a Mobile Ground
Agent [38.140216125792755]
クロスビュー画像のジオローカライゼーションは、GPSを必要とせずに、局地画像とオーバーヘッド衛星画像とをマッチングすることにより、エージェントのグローバルな位置を推定する。
我々のアプローチはワイド・エリア・ジオローカライゼーション (WAG) と呼ばれ、ニューラルネットワークと粒子フィルタを組み合わせることで、GPSを付加した環境で移動するエージェントのグローバルな位置推定を実現している。
WAGは、20mの順序で位置推定精度を達成し、ベースライントレーニングと重み付けのアプローチと比較して98%の削減を実現した。
論文 参考訳(メタデータ) (2022-03-10T19:54:12Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。