論文の概要: Vision-Based Terrain Relative Navigation on High-Altitude Balloon and
Sub-Orbital Rocket
- arxiv url: http://arxiv.org/abs/2302.08011v1
- Date: Thu, 16 Feb 2023 00:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:31:07.834143
- Title: Vision-Based Terrain Relative Navigation on High-Altitude Balloon and
Sub-Orbital Rocket
- Title(参考訳): 高高度気球とサブオービタルロケットのビジョンベース測地相対航法
- Authors: Dominic Maggio, Courtney Mario, Brett Streetman, Ted Steiner, Luca
Carlone
- Abstract要約: 本研究では,高高度ナビゲーションにカメラを用いたアプローチを用いた実験的検討を行った。
我々は、World View Enterprisesの高高度気球から収集したデータに基づいて、横型カメラと下向きカメラの両方の性能を評価する。
我々は,150km以上の軌道上での平均位置誤差が290m未満であることを示す。
- 参考スコア(独自算出の注目度): 17.30887825157318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an experimental analysis on the use of a camera-based approach for
high-altitude navigation by associating mapped landmarks from a satellite image
database to camera images, and by leveraging inertial sensors between camera
frames. We evaluate performance of both a sideways-tilted and downward-facing
camera on data collected from a World View Enterprises high-altitude balloon
with data beginning at an altitude of 33 km and descending to near ground level
(4.5 km) with 1.5 hours of flight time. We demonstrate less than 290 meters of
average position error over a trajectory of more than 150 kilometers. In
addition to showing performance across a range of altitudes, we also
demonstrate the robustness of the Terrain Relative Navigation (TRN) method to
rapid rotations of the balloon, in some cases exceeding 20 degrees per second,
and to camera obstructions caused by both cloud coverage and cords swaying
underneath the balloon. Additionally, we evaluate performance on data collected
by two cameras inside the capsule of Blue Origin's New Shepard rocket on
payload flight NS-23, traveling at speeds up to 880 km/hr, and demonstrate less
than 55 meters of average position error.
- Abstract(参考訳): 本稿では,衛星画像データベースからカメラ画像にマッピングされたランドマークを関連付け,カメラフレーム間の慣性センサを活用し,高高度ナビゲーションのためのカメラベース手法の利用に関する実験分析を行う。
高度33kmから下降し,飛行時間1.5時間で地上レベル(4.5km)付近まで下降したWorld View Enterprises高高度気球から収集したデータに対して,横型カメラと下向きカメラの両方の性能を評価した。
我々は,150km以上の軌道上での平均位置誤差が290m未満であることを示す。
また、高度の広い範囲での性能を示すことに加えて、気球の高速回転、場合によっては毎秒20度を超えること、気球の下の雲面とケーブルの揺れによるカメラ障害に対して、地形相対航法(trn)の堅牢性を示す。
さらに、Blue OriginのNew Shepardロケットの積載機NS-23のカプセル内の2台のカメラで収集したデータから、最大880km/hの速度で走行し、平均位置誤差が55m未満であることを示す。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - Deep Learning Enhanced Road Traffic Analysis: Scalable Vehicle Detection and Velocity Estimation Using PlanetScope Imagery [38.22365259129059]
本稿では,PlanetScope SuperDove衛星画像を用いて車両の速度を推定する手法を提案する。
本稿では,RGB帯における車両軌跡追跡のためのキーポイントR-CNNモデルを提案する。
ドローン比較の結果、衛星データの平均速度は112.85km/h、ドローン映像の平均速度は131.83km/hと過小評価されている。
論文 参考訳(メタデータ) (2024-10-04T18:14:07Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - VPAIR -- Aerial Visual Place Recognition and Localization in Large-scale
Outdoor Environments [49.82314641876602]
VPAIRという新しいデータセットを提示します。
データセットは地上300メートル以上の高度で飛行する軽航空機に記録されている。
このデータセットは、様々なタイプの挑戦的な風景を、100km以上にわたってカバーしている。
論文 参考訳(メタデータ) (2022-05-23T18:50:08Z) - SUES-200: A Multi-height Multi-scene Cross-view Image Benchmark Across
Drone and Satellite [0.0]
クロスビュー画像マッチングの目的は、同じターゲットシーンの異なるプラットフォームから取得した画像をマッチングすることである。
SUES-200は、飛行高度の異なるドローンの空中撮影によって生じる違いを考察した最初のデータセットである。
論文 参考訳(メタデータ) (2022-04-22T13:49:52Z) - MOBDrone: a Drone Video Dataset for Man OverBoard Rescue [4.393945242867356]
我々は,海洋環境における125万以上のドローンビュー画像の収集であるMOBDroneベンチマークを,いくつかの条件下でリリースした。
私たちは180K以上のオブジェクトを手動でアノテートしました。
我々はMOBDroneデータに基づくいくつかの最先端物体検出器の性能解析を行い、さらなる研究のベースラインとして機能する。
論文 参考訳(メタデータ) (2022-03-15T15:02:23Z) - Marine vessel tracking using a monocular camera [0.0]
ビデオ中の平面上を移動する物体を追跡する新しい方法は、境界ボックスの位置と大きさを用いて距離を推定することで達成される。
このソリューションはエッジでリアルタイムに実行でき、低消費電力のIoT環境で効率的な推論を実現することができる。
論文 参考訳(メタデータ) (2021-08-23T19:08:20Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Active Perception with A Monocular Camera for Multiscopic Vision [50.370074098619185]
低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
論文 参考訳(メタデータ) (2020-01-22T08:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。