論文の概要: DeepTracks: Geopositioning Maritime Vehicles in Video Acquired from a
Moving Platform
- arxiv url: http://arxiv.org/abs/2109.01235v1
- Date: Thu, 2 Sep 2021 22:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 22:48:42.953227
- Title: DeepTracks: Geopositioning Maritime Vehicles in Video Acquired from a
Moving Platform
- Title(参考訳): DeepTracks:移動プラットフォームから取得したビデオで海中車両を測位する
- Authors: Jianli Wei, Guanyu Xu, Alper Yilmaz
- Abstract要約: 移動プラットフォームに装着したカメラの画像から、画像に写っているターゲットボートの位置を推定する。
我々のソリューションは、最近のMLアルゴリズム、カメラシーン幾何とベイズフィルタを使用する。
提案手法の性能をGPS地中真理を用いて検証し, 推定した測地位置の精度と速度を示した。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Geopositioning and tracking a moving boat at sea is a very challenging
problem, requiring boat detection, matching and estimating its GPS location
from imagery with no common features. The problem can be stated as follows:
given imagery from a camera mounted on a moving platform with known GPS
location as the only valid sensor, we predict the geoposition of a target boat
visible in images. Our solution uses recent ML algorithms, the camera-scene
geometry and Bayesian filtering. The proposed pipeline first detects and tracks
the target boat's location in the image with the strategy of tracking by
detection. This image location is then converted to geoposition to the local
sea coordinates referenced to the camera GPS location using plane projective
geometry. Finally, target boat local coordinates are transformed to global GPS
coordinates to estimate the geoposition. To achieve a smooth geotrajectory, we
apply unscented Kalman filter (UKF) which implicitly overcomes small detection
errors in the early stages of the pipeline. We tested the performance of our
approach using GPS ground truth and show the accuracy and speed of the
estimated geopositions. Our code is publicly available at
https://github.com/JianliWei1995/AI-Track-at-Sea.
- Abstract(参考訳): 海上での移動船の測位と追跡は非常に難しい問題であり、一般的な特徴のない画像からボートの検出、マッチング、GPS位置の推定が必要となる。
既知のgps位置を唯一の有効なセンサとして移動プラットフォームに搭載されたカメラからの画像を考慮すれば、画像で見えるターゲットボートの位置を予測できる。
我々のソリューションは、最近のMLアルゴリズム、カメラシーン幾何とベイズフィルタを使用する。
提案するパイプラインは,まず画像中の目標船舶の位置を検出・追跡し,検出による追跡を行う。
この画像の位置は、平面射影幾何学を用いて、カメラgpsの位置を参照する局所海座標に変換される。
最後に、ターゲットボートの局所座標を地球規模のGPS座標に変換して位置を推定する。
スムーズなジオトラックを実現するために、パイプラインの初期段階で小さな検出誤差を暗黙的に克服する無人カルマンフィルタ(UKF)を適用した。
提案手法の性能をGPS地中真理を用いて検証し, 推定した測地位置の精度と速度を示した。
私たちのコードはhttps://github.com/JianliWei1995/AI-Track-at-Sea.comで公開されています。
関連論文リスト
- GAReT: Cross-view Video Geolocalization with Adapters and Auto-Regressive Transformers [53.80009458891537]
クロスビュービデオのジオローカライゼーションは、ストリートビュービデオからGPSトラジェクトリを空中ビュー画像と整列させることを目的としている。
現在のCVGL法では、現実のシナリオでは一般的に欠落しているカメラとオドメトリーのデータを使用する。
本稿では,カメラやオドメトリーデータを必要としないCVGLのフルトランスフォーマ方式であるGAReTを提案する。
論文 参考訳(メタデータ) (2024-08-05T21:29:33Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - A Gis Aided Approach for Geolocalizing an Unmanned Aerial System Using
Deep Learning [0.4297070083645048]
本稿では,GPS信号の劣化や拒否時にUASをジオローカライズする手法を提案する。
UASは、プラットフォームが飛ぶとリアルタイム画像を取得することができる、下向きのカメラをプラットフォーム上に備えているので、ジオローカライゼーションを実現するために、最新のディープラーニング技術を適用します。
我々は,OpenStreetMap (OSM) からGIS情報を抽出し,意味的に一致した特徴をビルディングクラスとランドスケープクラスに分割する。
論文 参考訳(メタデータ) (2022-08-25T17:51:15Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Accurate 3-DoF Camera Geo-Localization via Ground-to-Satellite Image
Matching [102.39635336450262]
地上で取得したクエリ画像とジオタグ付き衛星画像の大規模データベースとをマッチングすることにより、地上から衛星画像のジオローカライズの問題に対処する。
我々の新しい手法は、衛星画像のピクセルサイズの精度まで、クエリー画像のきめ細かい位置を達成できる。
論文 参考訳(メタデータ) (2022-03-26T20:10:38Z) - Continuous Self-Localization on Aerial Images Using Visual and Lidar
Sensors [25.87104194833264]
本研究では,車両のセンサ情報を未確認対象領域の航空画像に登録することにより,屋外環境におけるジオトラッキング手法を提案する。
我々は、地上および空中画像から視覚的特徴を抽出するために、計量学習環境でモデルを訓練する。
本手法は,視認不可能な正光の自己局在化のために,エンド・ツー・エンドの微分可能なモデルでオンボードカメラを利用する最初の方法である。
論文 参考訳(メタデータ) (2022-03-07T12:25:44Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Augmenting Depth Estimation with Geospatial Context [20.79700110152325]
深度推定のためのエンドツーエンドアーキテクチャを提案する。
我々は、共同位置のオーバーヘッド画像から合成地上深度マップを推定し、エンコーダ/デコーダスタイルのセグメンテーションネットワーク内に融合する。
その結果,地空間コンテキストの統合は,ベースラインに比べて誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2021-09-20T23:24:17Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。