論文の概要: Landmark-based Localization using Stereo Vision and Deep Learning in
GPS-Denied Battlefield Environment
- arxiv url: http://arxiv.org/abs/2402.12551v1
- Date: Mon, 19 Feb 2024 21:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:58:53.563371
- Title: Landmark-based Localization using Stereo Vision and Deep Learning in
GPS-Denied Battlefield Environment
- Title(参考訳): gpsによる戦場環境におけるステレオビジョンと深層学習を用いたランドマークに基づく位置推定
- Authors: Ganesh Sapkota and Sanjay Madria
- Abstract要約: 本稿では、受動カメラセンサのみを用いた非GPS戦場環境におけるローカライズのための新しいフレームワークを提案する。
提案手法では,距離推定にカスタムキャリブレーションされたステレオカメラと,実世界のランドマーク認識のためのデータセットを用いて訓練および微調整を行うYOLOv8sモデルを用いる。
実験の結果,提案手法は既存のアンカーベースDV-Hopアルゴリズムよりも優れた性能を示し,ローカライゼーション誤差(RMSE)の点で最も効率的な視覚ベースアルゴリズムと競合することがわかった。
- 参考スコア(独自算出の注目度): 1.19658449368018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Localization in a battlefield environment is increasingly challenging as GPS
connectivity is often denied or unreliable, and physical deployment of anchor
nodes across wireless networks for localization can be difficult in hostile
battlefield terrain. Existing range-free localization methods rely on
radio-based anchors and their average hop distance which suffers from accuracy
and stability in dynamic and sparse wireless network topology. Vision-based
methods like SLAM and Visual Odometry use expensive sensor fusion techniques
for map generation and pose estimation. This paper proposes a novel framework
for localization in non-GPS battlefield environments using only the passive
camera sensors and considering naturally existing or artificial landmarks as
anchors. The proposed method utilizes a customcalibrated stereo vision camera
for distance estimation and the YOLOv8s model, which is trained and fine-tuned
with our real-world dataset for landmark recognition. The depth images are
generated using an efficient stereomatching algorithm, and distances to
landmarks are determined by extracting the landmark depth feature utilizing a
bounding box predicted by the landmark recognition model. The position of the
unknown node is then obtained using the efficient least square algorithm and
then optimized using the L-BFGS-B (limited-memory quasi-Newton code for
bound-constrained optimization) method. Experimental results demonstrate that
our proposed framework performs better than existing anchorbased DV-Hop
algorithms and competes with the most efficient vision-based algorithms in
terms of localization error (RMSE).
- Abstract(参考訳): 戦場環境におけるローカライゼーションは、GPS接続がしばしば否定されるか信頼性が低いこと、また、無線ネットワークをまたいだアンカーノードの物理的配置が敵対的な戦場環境では困難になるため、ますます困難になっている。
既存のレンジフリーなローカライゼーション手法は、無線ベースのアンカーと、無線ネットワークトポロジの精度と安定性に苦しむ平均ホップ距離に依存している。
SLAMやVisual Odometryのような視覚ベースの手法は、地図生成とポーズ推定に高価なセンサー融合技術を使用する。
本稿では,受動的カメラセンサのみを用いた非GPS戦場環境のローカライズのための新しい枠組みを提案し,自然に存在するランドマークや人工ランドマークをアンカーとして考慮する。
提案手法は距離推定にカスタムキャリブ付きステレオビジョンカメラと,ランドマーク認識のための実世界データセットで訓練・微調整したyolov8sモデルを用いる。
効率的なステレオマッチングアルゴリズムを用いて深度画像を生成し、ランドマーク認識モデルにより予測されるバウンディングボックスを用いてランドマーク深度特徴を抽出してランドマーク間距離を決定する。
その後、最小二乗アルゴリズムを用いて未知ノードの位置を求め、L-BFGS-B(限定メモリ準ニュートン符号)法を用いて最適化する。
実験の結果,提案手法は既存のアンカーベースDV-Hopアルゴリズムよりも優れた性能を示し,ローカライゼーション誤差(RMSE)において最も効率的な視覚ベースのアルゴリズムと競合することがわかった。
関連論文リスト
- Tightly-Coupled, Speed-aided Monocular Visual-Inertial Localization in Topological Map [0.7373617024876725]
本稿では,トポロジカルマップを用いた車両速度支援単眼視覚慣性位置推定のための新しいアルゴリズムを提案する。
提案システムは、GPSやLiDARのような高価なセンサーに大きく依存する既存の手法の限界に対処することを目的としている。
論文 参考訳(メタデータ) (2024-11-08T11:55:27Z) - Secure Navigation using Landmark-based Localization in a GPS-denied
Environment [1.19658449368018]
本稿では,ランドマークに基づくローカライゼーション(LanBLoc)と拡張カルマンフィルタ(EKF)を統合した新たなフレームワークを提案する。
本稿では,障害物や危険のない経路を移動する物体を誘導する2つのアプローチについて,シミュレーションした戦場シナリオを提案する。
論文 参考訳(メタデータ) (2024-02-22T04:41:56Z) - Landmark Stereo Dataset for Landmark Recognition and Moving Node
Localization in a Non-GPS Battlefield Environment [1.19658449368018]
移動部隊や防衛部隊の仮想座標を得るために,無線ベースのアンカーノードの代わりにランドマークアンカーを用いる新たな戦略を提案する。
提案手法は,Yolov5モデルを用いたランドマーク認識と,効率的なステレオマッチングアルゴリズムを用いたランドマーク距離推定を実現する。
論文 参考訳(メタデータ) (2024-02-19T17:49:23Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Visual Cross-View Metric Localization with Dense Uncertainty Estimates [11.76638109321532]
本研究は、屋外ロボティクスにおける視覚的クロスビューメトリックローカライゼーションに対処する。
地上レベルのカラー画像と局地的な環境を含む衛星パッチが与えられた場合、衛星パッチ内の地上カメラの位置を特定することが課題である。
我々は、より高密度な衛星記述子、ボトルネックにおける類似性マッチング、およびマルチモーダルなローカライゼーションの曖昧さを捉えるための出力としての密度空間分布を備えた新しいネットワークアーキテクチャを考案した。
論文 参考訳(メタデータ) (2022-08-17T20:12:23Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - DASGIL: Domain Adaptation for Semantic and Geometric-aware Image-based
Localization [27.294822556484345]
環境変化下での視覚的長期化は、自律走行と移動ロボット工学において難しい問題である。
視覚的位置認識のための多スケール潜在埋め込み表現に幾何学的および意味的情報を融合する新しいマルチタスクアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-01T17:44:25Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Real-time Localization Using Radio Maps [59.17191114000146]
パスロスに基づく簡易かつ効果的なローカライゼーション法を提案する。
提案手法では, 受信した信号強度を, 既知の位置を持つ基地局の集合から報告する。
論文 参考訳(メタデータ) (2020-06-09T16:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。