論文の概要: Spiking monocular event based 6D pose estimation for space application
- arxiv url: http://arxiv.org/abs/2501.02916v1
- Date: Mon, 06 Jan 2025 10:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:25.167265
- Title: Spiking monocular event based 6D pose estimation for space application
- Title(参考訳): スパイキング単分子イベントに基づく空間応用のための6次元ポーズ推定
- Authors: Jonathan Courtois, Benoît Miramond, Alain Pegatoquet,
- Abstract要約: 本稿では,宇宙船のイベントベースポーズ推定を改善するための,完全なイベントベースソリューションの実現可能性について検討する。
本稿では,テストベッド上のイベントベースカメラによってキャプチャされた実イベントフレームを用いた,最初のイベントベースデータセットであるSEENICについて述べる。
本稿では,21cm以上の位置誤差と14度回転誤差に対して,我々の小さなスパイク終端ネットワーク(S2E2)ソリューションが興味深い結果をもたらす,このユースケースにおける最初のイベントベースソリューションの方法と結果を示す。
- 参考スコア(独自算出の注目度): 0.21847754147782888
- License:
- Abstract: With the growing interest in on On-orbit servicing (OOS) and Active Debris Removal (ADR) missions, spacecraft poses estimation algorithms are being developed using deep learning to improve the precision of this complex task and find the most efficient solution. With the advances of bio-inspired low-power solutions, such a spiking neural networks and event-based processing and cameras, and their recent work for space applications, we propose to investigate the feasibility of a fully event-based solution to improve event-based pose estimation for spacecraft. In this paper, we address the first event-based dataset SEENIC with real event frames captured by an event-based camera on a testbed. We show the methods and results of the first event-based solution for this use case, where our small spiking end-to-end network (S2E2) solution achieves interesting results over 21cm position error and 14degree rotation error, which is the first step towards fully event-based processing for embedded spacecraft pose estimation.
- Abstract(参考訳): OOS(On-Orbit servicing)とアクティブデブリ除去(Active Debris removal、ADR)ミッションへの関心が高まっているため、宇宙船のポーズ推定アルゴリズムは、この複雑なタスクの精度を改善し、最も効率的な解を見つけるためにディープラーニングを用いて開発されている。
スパイクニューラルネットワークやイベントベース処理やカメラなどのバイオインスパイアされた低消費電力ソリューションの進歩と、最近の宇宙応用への応用により、宇宙船のイベントベースポーズ推定を改善するための完全なイベントベースソリューションの実現可能性について検討する。
本稿では,テストベッド上のイベントベースカメラによってキャプチャされた実イベントフレームを用いた,最初のイベントベースデータセットであるSEENICについて述べる。
本稿では,21cm以上の位置誤差と140°回転誤差を用いた小型スパイク終端ネットワーク(S2E2)ソリューションが,組込み宇宙船の完全なイベントベース処理に向けた第一歩となる興味深い結果を得る,このユースケースに対する最初のイベントベースソリューションの方法と結果を示す。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - A Survey on Deep Learning-Based Monocular Spacecraft Pose Estimation:
Current State, Limitations and Prospects [7.08026800833095]
非協力宇宙船の姿勢を推定することは、軌道上の視覚ベースのシステムを実現するための重要なコンピュータビジョン問題である。
コンピュータビジョンの一般的な傾向に続き、この問題を解決するためにディープラーニング(DL)手法を活用する研究がますます増えている。
有望な研究段階の結果にもかかわらず、実際のミッションでこのような方法が使われるのを防ぐ大きな課題が今も残っている。
論文 参考訳(メタデータ) (2023-05-12T09:52:53Z) - Towards Spatial Equilibrium Object Detection [88.9747319572368]
本稿では,現代物体検出器の空間的不平衡問題について考察する。
本稿では,ゾーンにおける検出性能の測定により,この問題の定量化を提案する。
これは、より一般化された測度を設計する動機となり、空間平衡精度と呼ばれる。
論文 参考訳(メタデータ) (2023-01-14T17:33:26Z) - Spacecraft Pose Estimation Based on Unsupervised Domain Adaptation and
on a 3D-Guided Loss Combination [0.0]
宇宙船のポーズ推定は、2つの宇宙船が互いに周回しなければならない宇宙ミッションを可能にする重要なタスクである。
ポーズ推定の最先端アルゴリズムは、データ駆動方式を採用している。
宇宙環境に関連するコストと困難のために、宇宙環境で撮影された宇宙船の実際の訓練データが欠落している。
これは3Dデータシミュレータの導入を動機付け、データ可用性の問題を解決すると同時に、トレーニング(ソース)とテスト(ターゲット)ドメインの間に大きなギャップを導入する。
論文 参考訳(メタデータ) (2022-12-27T08:57:46Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning [1.212848031108815]
DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
論文 参考訳(メタデータ) (2021-12-18T06:12:24Z) - FAITH: Fast iterative half-plane focus of expansion estimation using
event-based optic flow [3.326320568999945]
本研究では, 小型航空機(MAV)の走行経路を決定するためのFAst ITerative Half-plane (FAITH)法を提案する。
その結果,提案手法の計算効率は高い精度を維持しながら最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:49:02Z) - Learning to Detect Objects with a 1 Megapixel Event Camera [14.949946376335305]
イベントカメラは、高時間精度、低データレート、高ダイナミックレンジで視覚情報を符号化する。
フィールドの新規性のため、多くのビジョンタスクにおけるイベントベースのシステムの性能は、従来のフレームベースのソリューションに比べて依然として低い。
論文 参考訳(メタデータ) (2020-09-28T16:03:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。