論文の概要: AstroLoc: Robust Space to Ground Image Localizer
- arxiv url: http://arxiv.org/abs/2502.07003v1
- Date: Mon, 10 Feb 2025 20:06:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:51.170886
- Title: AstroLoc: Robust Space to Ground Image Localizer
- Title(参考訳): AstroLoc: 画像ローカライザにロバストなスペース
- Authors: Gabriele Berton, Alex Stoken, Carlo Masone,
- Abstract要約: 宇宙飛行士の写真を訓練に活用できる最初のパイプラインを提示する。
AstroLocは2つの損失を通して地球の表面の特徴の堅牢な表現を学習する。
AstroLocは以前のSOTAよりも平均35%のリコール改善を実現しています。
- 参考スコア(独自算出の注目度): 3.794096590842654
- License:
- Abstract: Astronauts take thousands of photos of Earth per day from the International Space Station, which, once localized on Earth's surface, are used for a multitude of tasks, ranging from climate change research to disaster management. The localization process, which has been performed manually for decades, has recently been approached through image retrieval solutions: given an astronaut photo, find its most similar match among a large database of geo-tagged satellite images, in a task called Astronaut Photography Localization (APL). Yet, existing APL approaches are trained only using satellite images, without taking advantage of the millions open-source astronaut photos. In this work we present the first APL pipeline capable of leveraging astronaut photos for training. We first produce full localization information for 300,000 manually weakly labeled astronaut photos through an automated pipeline, and then use these images to train a model, called AstroLoc. AstroLoc learns a robust representation of Earth's surface features through two losses: astronaut photos paired with their matching satellite counterparts in a pairwise loss, and a second loss on clusters of satellite imagery weighted by their relevance to astronaut photography via unsupervised mining. We find that AstroLoc achieves a staggering 35% average improvement in recall@1 over previous SOTA, pushing the limits of existing datasets with a recall@100 consistently over 99%. Finally, we note that AstroLoc, without any fine-tuning, provides excellent results for related tasks like the lost-in-space satellite problem and historical space imagery localization.
- Abstract(参考訳): 国際宇宙ステーション(ISS)から毎日何千枚もの地球写真を撮影する宇宙飛行士は、かつて地球表面をローカライズしたもので、気候変動の研究から災害管理まで、さまざまなタスクに利用されている。
APL(Astronaut Photography Localization)と呼ばれるタスクでは、宇宙飛行士の写真から、ジオタグ付き衛星画像の大規模なデータベースの中で、最もよく似たマッチングを見つける。
しかし、既存のAPLアプローチは、何百万ものオープンソースの宇宙飛行士の写真を活用することなく、衛星画像のみを使用して訓練されている。
本研究では,宇宙飛行士の写真をトレーニングに活用できる最初のAPLパイプラインについて紹介する。
まず、30万枚の写真を手動で自動パイプラインでラベル付けし、これらの画像を使ってAstroLocと呼ばれるモデルを訓練します。
AstroLocは、地球の表面の特徴の堅牢な表現を2つの損失で学べる: 宇宙飛行士の写真は、一致する衛星とペアの損失でペアリングされ、また、教師なしの採掘による宇宙飛行士の写真との関連性によって重み付けられた衛星画像のクラスターに2番目の損失を与える。
AstroLocは、以前のSOTAよりも平均35%改善されたリコール@1を達成し、リコール@100で既存のデータセットの制限を99%以上押し上げています。
最後に、AstroLocは微調整なしで、宇宙空間の衛星問題や歴史的空間像のローカライゼーションといった関連するタスクに優れた結果をもたらすことに留意する。
関連論文リスト
- Advancing Earth Observation: A Survey on AI-Powered Image Processing in Satellites [0.0]
技術の進歩は、地球観測衛星(EO)が捉えた画像の品質と量を大幅に向上させた。
これは、この画像を地球に送信して処理する従来のワークフローの有効性に挑戦している。
この問題に対処するためのアプローチは、事前訓練された人工知能モデルを使用して、衛星上で画像を処理することである。
論文 参考訳(メタデータ) (2025-01-21T10:48:13Z) - EarthMatch: Iterative Coregistration for Fine-grained Localization of Astronaut Photography [18.978718859476267]
本研究では,宇宙飛行士の写真の微粒化を再現する,反復的ホモグラフィー推定手法であるEarthMatchを提案する。
提案手法の有効性をこのデータセットで証明し,画像マーカ比較のための新しい公正な方法を提案する。
われわれの方法では、45万枚の地球の写真の高速かつ正確なローカライズが可能になります。
論文 参考訳(メタデータ) (2024-05-08T20:46:36Z) - Deep Learning for Satellite Image Time Series Analysis: A Review [5.882962965835289]
本稿では,SITSデータから環境,農業,その他の地球観測変数をモデル化する最先端の手法について,深層学習法を用いて概説する。
論文 参考訳(メタデータ) (2024-04-05T07:44:17Z) - EarthLoc: Astronaut Photography Localization by Indexing Earth from
Space [22.398824732314015]
宇宙飛行士の写真は、科学研究と災害対応の両方に非常に価値のある、ユニークな地球観測データセットを提示する。
現在の手動のローカライゼーションの取り組みは時間がかかり、自動化されたソリューションの必要性を動機付けている。
本稿では,この課題を効果的に解決するために,画像検索を活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T14:30:51Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - DiffusionSat: A Generative Foundation Model for Satellite Imagery [63.2807119794691]
現在、DiffusionSatは、現在利用可能な大規模な高解像度リモートセンシングデータセットのコレクションに基づいてトレーニングされている、最大の生成基盤モデルである。
提案手法は, リアルタイムなサンプルを作成し, 時間生成, マルチスペクトル入力の超解像, インペイントなどの複数の生成課題を解くのに利用できる。
論文 参考訳(メタデータ) (2023-12-06T16:53:17Z) - POLAR-Sim: Augmenting NASA's POLAR Dataset for Data-Driven Lunar Perception and Rover Simulation [1.9131868049527916]
NASAのPOLARデータセットには、約2,600対の高ダイナミックレンジステレオ写真が含まれている。
これらの写真の目的は、ロボット工学、AIに基づく認識、そして自律的なナビゲーションの開発を促進することである。
この作業により、カメラモデルを持つ誰でも、POLARデータセットの13のシナリオのいずれかに関連する画像を合成できる。
論文 参考訳(メタデータ) (2023-09-21T18:00:34Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - Convolutional Neural Processes for Inpainting Satellite Images [56.032183666893246]
Inpaintingは、既知のピクセルに基づいて何が欠けているかを予測することを含み、画像処理における古い問題である。
本研究では,LANDSAT 7衛星画像のスキャンライン塗装問題に対して,従来の手法や最先端のディープラーニング塗装モデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-05-24T23:29:04Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。