論文の概要: Quantifying Accuracy of an Event-Based Star Tracker via Earth's Rotation
- arxiv url: http://arxiv.org/abs/2509.08794v1
- Date: Wed, 10 Sep 2025 17:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.528782
- Title: Quantifying Accuracy of an Event-Based Star Tracker via Earth's Rotation
- Title(参考訳): 地球回転によるイベントベーススタートラッカーの精度の定量化
- Authors: Dennis Melamed, Connor Hashemi, Scott McCloskey,
- Abstract要約: イベントベースのカメラ(EBC)は、星追跡に基づく姿勢決定のための有望な新しい技術である。
我々は、地球の動きを地上の真理として利用したEBC星追跡システムの精度を分析し、比較を行った。
- 参考スコア(独自算出の注目度): 2.4316550366482352
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Event-based cameras (EBCs) are a promising new technology for star tracking-based attitude determination, but prior studies have struggled to determine accurate ground truth for real data. We analyze the accuracy of an EBC star tracking system utilizing the Earth's motion as the ground truth for comparison. The Earth rotates in a regular way with very small irregularities which are measured to the level of milli-arcseconds. By keeping an event camera static and pointing it through a ground-based telescope at the night sky, we create a system where the only camera motion in the celestial reference frame is that induced by the Earth's rotation. The resulting event stream is processed to generate estimates of orientation which we compare to the International Earth Rotation and Reference System (IERS) measured orientation of the Earth. The event camera system is able to achieve a root mean squared across error of 18.47 arcseconds and an about error of 78.84 arcseconds. Combined with the other benefits of event cameras over framing sensors (reduced computation due to sparser data streams, higher dynamic range, lower energy consumption, faster update rates), this level of accuracy suggests the utility of event cameras for low-cost and low-latency star tracking. We provide all code and data used to generate our results: https://gitlab.kitware.com/nest-public/telescope_accuracy_quantification.
- Abstract(参考訳): イベントベースのカメラ(EBC)は、星追跡に基づく姿勢決定のための有望な新しい技術であるが、以前の研究では、実際のデータに対する正確な地上の真実を決定するのに苦労してきた。
我々は、地球の動きを地上の真理として利用したEBC星追跡システムの精度を分析し、比較を行った。
地球は規則的に回転し、非常に小さな不規則さがミリ秒単位で測定される。
イベントカメラを静的に保ち、夜空の地上望遠鏡を通してそれを指し示すことで、天の基準フレーム内の唯一のカメラの動きが地球の自転によって引き起こされるシステムを構築する。
得られたイベントストリームは、国際地球回転基準系(IERS)が測定した地球方向と比べた方向の推定値を生成するために処理される。
イベントカメラシステムは18.47秒の誤差と78.84秒の誤差で2乗したルート平均を達成することができる。
フレーミングセンサーに対する他のイベントカメラの利点(スペーサーデータストリームによる再現された計算、より高いダイナミックレンジ、低いエネルギー消費、より高速な更新率)と組み合わせることで、このレベルの精度は、低コストで低遅延の星追跡のためのイベントカメラの有用性を示唆している。
https://gitlab.kitware.com/nest-public/telescope_accuracy_quantification。
関連論文リスト
- MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - World-Grounded Human Motion Recovery via Gravity-View Coordinates [60.618543026949226]
本研究では,新しい重力-視座標系における人間のポーズ推定手法を提案する。
提案したGVシステムは、ビデオフレーム毎に自然に重力に整合し、一意に定義されている。
提案手法は,カメラ空間と地上設定の両方でよりリアルな動きを再現し,精度と速度の両方で最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-09-10T17:25:47Z) - Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - TUMTraf Event: Calibration and Fusion Resulting in a Dataset for
Roadside Event-Based and RGB Cameras [14.57694345706197]
インテリジェントトランスポーテーションシステム(ITS)のイベントベースカメラ
非常に高い時間分解能とダイナミックレンジを提供し、動きのぼやけをなくし、夜間の検知性能を向上させることができる。
しかし、イベントベースの画像は従来のRGBカメラの画像と比べて色やテクスチャが欠けている。
論文 参考訳(メタデータ) (2024-01-16T16:25:37Z) - Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision [6.464577943887317]
OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:07:42Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - The Spatio-Temporal Poisson Point Process: A Simple Model for the
Alignment of Event Camera Data [19.73526916714181]
イベントカメラは、視覚情報の自然で効率的な表現を提供する。
本稿では,その自然時間構造を捉えたイベントデータの新しいモデルを提案する。
DAVIS 240Cデータセット上での回転速度推定の精度向上について述べる。
論文 参考訳(メタデータ) (2021-06-13T00:43:27Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。