論文の概要: Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision
- arxiv url: http://arxiv.org/abs/2309.06819v1
- Date: Wed, 13 Sep 2023 09:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 14:53:35.925153
- Title: Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision
- Title(参考訳): イベントベースビジョンによる小惑星ベンヌから放出される粒子の追跡
- Authors: Lo\"ic J. Azzalini and Dario Izzo
- Abstract要約: OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
- 参考スコア(独自算出の注目度): 6.464577943887317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early detection and tracking of ejecta in the vicinity of small solar system
bodies is crucial to guarantee spacecraft safety and support scientific
observation. During the visit of active asteroid Bennu, the OSIRIS-REx
spacecraft relied on the analysis of images captured by onboard navigation
cameras to detect particle ejection events, which ultimately became one of the
mission's scientific highlights. To increase the scientific return of similar
time-constrained missions, this work proposes an event-based solution that is
dedicated to the detection and tracking of centimetre-sized particles. Unlike a
standard frame-based camera, the pixels of an event-based camera independently
trigger events indicating whether the scene brightness has increased or
decreased at that time and location in the sensor plane. As a result of the
sparse and asynchronous spatiotemporal output, event cameras combine very high
dynamic range and temporal resolution with low-power consumption, which could
complement existing onboard imaging techniques. This paper motivates the use of
a scientific event camera by reconstructing the particle ejection episodes
reported by the OSIRIS-REx mission in a photorealistic scene generator and in
turn, simulating event-based observations. The resulting streams of
spatiotemporal data support future work on event-based multi-object tracking.
- Abstract(参考訳): 小型太陽系天体の近傍でエジェクタの早期発見と追跡は、宇宙船の安全性を保証し、科学観測を支援するために不可欠である。
活動的な小惑星ベンヌの訪問中、OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析して粒子の放出を検知し、最終的にミッションの科学的なハイライトとなった。
同様の時間制限されたミッションの科学的回帰を高めるため、この研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
標準のフレームベースのカメラとは異なり、イベントベースのカメラの画素は、その時点でシーンの明るさが増減したかを示すイベントを独立してトリガーする。
スパースと非同期時空間出力の結果、イベントカメラは、非常に高いダイナミックレンジと時間分解能と低消費電力を組み合わせ、既存のオンボードイメージング技術を補完する。
本稿では,OSIRIS-RExミッションで報告された粒子放出現象を光リアルなシーンジェネレータで再構成し,イベントベースの観測をシミュレートすることで,科学的イベントカメラの利用を動機づける。
時空間データのストリームは、イベントベースのマルチオブジェクトトラッキングにおける将来の作業をサポートする。
関連論文リスト
- Research, Applications and Prospects of Event-Based Pedestrian Detection: A Survey [10.494414329120909]
生物学的網膜にインスパイアされたイベントベースのカメラは、最小限の電力要求、無視できるレイテンシ、時間分解能、拡張可能なダイナミックレンジによって区別される最先端のセンサーへと進化してきた。
イベントベースのカメラは、高速撮像のシナリオにおいて、外部データ伝送を誘発し、動きのぼやけをなくすことによって制限に対処する。
本稿では,特に自律運転における研究と応用について概観する。
論文 参考訳(メタデータ) (2024-07-05T06:17:00Z) - Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Temporal Densely Connected Recurrent Network for Event-based Human
Pose Estimation [24.367222637492787]
イベントカメラは、バイオインスパイアされた視覚センサーで、ピクセルごとの明るさが非同期に変化する。
本稿では,不完全情報の問題に対処する,新しい密結合型再帰型アーキテクチャを提案する。
この再帰的アーキテクチャにより、時間ステップをまたいだ逐次的だけでなく、非逐次的幾何的整合性も明示的にモデル化できる。
論文 参考訳(メタデータ) (2022-09-15T04:08:18Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。