論文の概要: High-accuracy Vision-Based Attitude Estimation System for Air-Bearing
Spacecraft Simulators
- arxiv url: http://arxiv.org/abs/2312.08146v1
- Date: Wed, 13 Dec 2023 13:55:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 15:08:23.225374
- Title: High-accuracy Vision-Based Attitude Estimation System for Air-Bearing
Spacecraft Simulators
- Title(参考訳): 航空機シミュレータ用高精度視覚ベース姿勢推定システム
- Authors: Fabio Ornati, Gianfranco Di Domenico, Paolo Panicucci, Francesco
Topputo
- Abstract要約: 本稿では, 単眼カメラとフィデューシャルマーカーのセットを用いて, 回転空調プラットフォームに対する姿勢を計算するための, 新規で汎用的な手法について述べる。
システムパラメータの予備推定を行う自動校正手順を示す。
その結果,約12arcsecと$sim$37arcsecの順に1-sigmaの精度が期待された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Air-bearing platforms for simulating the rotational dynamics of satellites
require highly precise ground truth systems. Unfortunately, commercial motion
capture systems used for this scope are complex and expensive. This paper shows
a novel and versatile method to compute the attitude of rotational air-bearing
platforms using a monocular camera and sets of fiducial markers. The work
proposes a geometry-based iterative algorithm that is significantly more
accurate than other literature methods that involve the solution of the
Perspective-n-Point problem. Additionally, auto-calibration procedures to
perform a preliminary estimation of the system parameters are shown. The
developed methodology is deployed onto a Raspberry Pi 4 micro-computer and
tested with a set of LED markers. Data obtained with this setup are compared
against computer simulations of the same system to understand and validate the
attitude estimation performances. Simulation results show expected 1-sigma
accuracies in the order of $\sim$ 12 arcsec and $\sim$ 37 arcsec for about- and
cross-boresight rotations of the platform, and average latency times of 6 ms.
- Abstract(参考訳): 衛星の回転力学をシミュレートする空気を持つプラットフォームは、非常に正確な地上真実システムを必要とする。
残念ながら、このスコープで使用される商用モーションキャプチャシステムは複雑で高価である。
本稿では,単眼カメラとfiducial markerのセットを用いて,回転式空気保持プラットフォームの姿勢を計算する新しい多用途な手法を提案する。
本研究は,遠近法n点問題の解法を含む他の文献法よりもかなり精度の高い幾何学的反復アルゴリズムを提案する。
さらに、システムパラメータの予備的な推定を行う自動校正手順を示す。
開発された方法論はRaspberry Pi 4マイクロコンピュータにデプロイされ、LEDマーカーのセットでテストされる。
この設定で得られたデータは、同じシステムのコンピュータシミュレーションと比較し、姿勢推定性能を理解し検証する。
シミュレーションの結果,約12arcsecと$\sim$37arcsecの順に1-sigmaの精度が期待され,平均遅延時間は6msであった。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Deep Learning for Inertial Sensor Alignment [1.9773109138840514]
慣性測定ユニット(IMU)を装備したスマートフォンのヨー装着角度を学習し,車に装着するデータ駆動型アプローチを提案する。
提案モデルは、IMUからの加速度計とジャイロスコープのみを入力として使用する。
トレーニングされたモデルはAndroidデバイスにデプロイされ、推定されたヨー装着角度の精度をテストするためにリアルタイムで評価される。
論文 参考訳(メタデータ) (2022-12-10T07:50:29Z) - A Flexible-Frame-Rate Vision-Aided Inertial Object Tracking System for
Mobile Devices [3.4836209951879957]
本稿では,モバイルデバイス用フレキシブルフレームレートオブジェクトポーズ推定とトラッキングシステムを提案する。
高速トラッキングのためにクライアント側で慣性計測ユニット(IMU)ポーズ伝搬を行い、サーバ側でRGB画像ベースの3Dポーズ推定を行う。
我々のシステムは120FPSまでのフレキシブルフレームレートをサポートし、ローエンドデバイス上での高精度かつリアルタイムなトラッキングを保証する。
論文 参考訳(メタデータ) (2022-10-22T15:26:50Z) - Stable Object Reorientation using Contact Plane Registration [32.19425880216469]
本稿では,条件付き生成モデルを用いて回転空間におけるマルチモーダリティのモデル化において重要な課題を克服することを提案する。
我々のシステムは,実世界深度カメラで捉えたノイズや部分的に観測された点雲観測から操作することができる。
論文 参考訳(メタデータ) (2022-08-18T17:10:28Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Multi-scale Interaction for Real-time LiDAR Data Segmentation on an
Embedded Platform [62.91011959772665]
LiDARデータのリアルタイムセマンティックセグメンテーションは、自動運転車にとって不可欠である。
ポイントクラウド上で直接動作する現在のアプローチでは、複雑な空間集約操作を使用する。
本稿では,マルチスケールインタラクションネットワーク(MINet)と呼ばれるプロジェクションベースの手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T19:06:11Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。