論文の概要: Event-based Star Tracking under Spacecraft Jitter: the e-STURT Dataset
- arxiv url: http://arxiv.org/abs/2505.12588v1
- Date: Mon, 19 May 2025 00:55:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.329673
- Title: Event-based Star Tracking under Spacecraft Jitter: the e-STURT Dataset
- Title(参考訳): 宇宙機ジッターによるイベントベースの星追跡:e-STURTデータセット
- Authors: Samya Bagchi, Peter Anastasiou, Matthew Tetlow, Tat-Jun Chin, Yasir Latif,
- Abstract要約: ジッターは、光学通信、地球観測、宇宙領域の認識に必要な宇宙船の微細な点定能力を劣化させる。
我々は、制御ジッター条件下での星観測の初めてのイベントカメラに基づくデータセットである、イベントベースのスタートラッキング・アンダージッターデータセットを提示する。
- 参考スコア(独自算出の注目度): 21.911811675858374
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Jitter degrades a spacecraft's fine-pointing ability required for optical communication, earth observation, and space domain awareness. Development of jitter estimation and compensation algorithms requires high-fidelity sensor observations representative of on-board jitter. In this work, we present the Event-based Star Tracking Under Jitter (e-STURT) dataset -- the first event camera based dataset of star observations under controlled jitter conditions. Specialized hardware employed for the dataset emulates an event-camera undergoing on-board jitter. While the event camera provides asynchronous, high temporal resolution star observations, systematic and repeatable jitter is introduced using a micrometer accurate piezoelectric actuator. Various jitter sources are simulated using distinct frequency bands and utilizing both axes of motion. Ground-truth jitter is captured in hardware from the piezoelectric actuator. The resulting dataset consists of 200 sequences and is made publicly available. This work highlights the dataset generation process, technical challenges and the resulting limitations. To serve as a baseline, we propose a high-frequency jitter estimation algorithm that operates directly on the event stream. The e-STURT dataset will enable the development of jitter aware algorithms for mission critical event-based space sensing applications.
- Abstract(参考訳): ジッターは、光学通信、地球観測、宇宙領域の認識に必要な宇宙船の微細な点定能力を劣化させる。
ジッタ推定・補償アルゴリズムの開発には,搭載ジッタの高忠実度センサ観測が必要である。
本研究では、制御ジッタ条件下での星観測の初めてのイベントカメラに基づくデータセットである、イベントベースのスタートラッキング・アンダージッター(e-STURT)データセットを示す。
データセットに使用される特殊なハードウェアは、オンボードジッタを実行中のイベントカメラをエミュレートする。
イベントカメラは、非同期で高時間分解能の恒星観測を提供するが、システマティックかつ繰り返し可能なジッタは、マイクロメーターの正確な圧電アクチュエータを用いて導入される。
様々なジッタ源は、異なる周波数帯域を用いてシミュレートされ、両方の動きの軸を利用する。
地絡ジッタは圧電アクチュエータからハードウェアで捕獲される。
得られたデータセットは200のシーケンスで構成され、公開されています。
この作業は、データセット生成プロセス、技術的な課題、そして結果として生じる制限を強調します。
ベースラインとして機能するために,イベントストリーム上で直接動作する高周波ジッタ推定アルゴリズムを提案する。
e-STURTデータセットは、ミッションクリティカルなイベントベースの空間センシングアプリケーションのためのジッタ認識アルゴリズムの開発を可能にする。
関連論文リスト
- E-VLC: A Real-World Dataset for Event-based Visible Light Communication And Localization [4.269675382023856]
イベントカメラはLED信号のデコードやLEDマーカーの位置に対するカメラへのデコードに使用することができる。
さまざまな現実世界の設定でデコードとローカライゼーションをベンチマークする公開データセットは存在しない。
ハードウェアトリガと正確に同期した、イベントカメラ、フレームカメラ、グラウンドトルースポーズからなる、最初のパブリックデータセットを提示する。
論文 参考訳(メタデータ) (2025-04-25T17:43:20Z) - Stereo Event-based, 6-DOF Pose Tracking for Uncooperative Spacecraft [6.1580246529916725]
イベントカメラには、高ダイナミックレンジ、高時間分解能、低消費電力などの多くの利点がある。
ステレオイベントカメラを用いた非協調宇宙船のラインベースポーズトラッキング手法を提案する。
論文 参考訳(メタデータ) (2025-03-17T01:51:00Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision [6.464577943887317]
OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:07:42Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - The LuViRA Dataset: Synchronized Vision, Radio, and Audio Sensors for Indoor Localization [41.58739817444644]
データセットには、カラー画像、対応する深度マップ、慣性測定ユニット(IMU)読み取り、5Gの大規模マルチインプットとMIMO(Multiple-output)テストベッドとユーザ機器のチャネル応答が含まれる。
これらのセンサーを同期させて、すべてのデータが同時に記録されるようにします。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーとのセンサー融合の研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Robotic Grasping Detection with Neuromorphic Vision Sensor
and Event-Stream Dataset [8.030163836902299]
ニューロモルフィック・ビジョンは、小さくて若い研究コミュニティである。従来のフレームベースのコンピュータビジョンと比較すると、ニューロモルフィック・ビジョンは小さくて若い研究コミュニティである。
91個のオブジェクトからなるイベントストリームデータセットという,ロボットによる把握データセットを構築した。
リードが高周波でブリンクするため、Event-Streamデータセットは1kHzの高周波でアノテートされる。
我々は、角度学習問題を回帰ではなく分類として考慮した、検出を把握するためのディープニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2020-04-28T16:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。