論文の概要: Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision
- arxiv url: http://arxiv.org/abs/2309.06819v1
- Date: Wed, 13 Sep 2023 09:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 14:53:35.925153
- Title: Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision
- Title(参考訳): イベントベースビジョンによる小惑星ベンヌから放出される粒子の追跡
- Authors: Lo\"ic J. Azzalini and Dario Izzo
- Abstract要約: OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
- 参考スコア(独自算出の注目度): 6.464577943887317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early detection and tracking of ejecta in the vicinity of small solar system
bodies is crucial to guarantee spacecraft safety and support scientific
observation. During the visit of active asteroid Bennu, the OSIRIS-REx
spacecraft relied on the analysis of images captured by onboard navigation
cameras to detect particle ejection events, which ultimately became one of the
mission's scientific highlights. To increase the scientific return of similar
time-constrained missions, this work proposes an event-based solution that is
dedicated to the detection and tracking of centimetre-sized particles. Unlike a
standard frame-based camera, the pixels of an event-based camera independently
trigger events indicating whether the scene brightness has increased or
decreased at that time and location in the sensor plane. As a result of the
sparse and asynchronous spatiotemporal output, event cameras combine very high
dynamic range and temporal resolution with low-power consumption, which could
complement existing onboard imaging techniques. This paper motivates the use of
a scientific event camera by reconstructing the particle ejection episodes
reported by the OSIRIS-REx mission in a photorealistic scene generator and in
turn, simulating event-based observations. The resulting streams of
spatiotemporal data support future work on event-based multi-object tracking.
- Abstract(参考訳): 小型太陽系天体の近傍でエジェクタの早期発見と追跡は、宇宙船の安全性を保証し、科学観測を支援するために不可欠である。
活動的な小惑星ベンヌの訪問中、OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析して粒子の放出を検知し、最終的にミッションの科学的なハイライトとなった。
同様の時間制限されたミッションの科学的回帰を高めるため、この研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
標準のフレームベースのカメラとは異なり、イベントベースのカメラの画素は、その時点でシーンの明るさが増減したかを示すイベントを独立してトリガーする。
スパースと非同期時空間出力の結果、イベントカメラは、非常に高いダイナミックレンジと時間分解能と低消費電力を組み合わせ、既存のオンボードイメージング技術を補完する。
本稿では,OSIRIS-RExミッションで報告された粒子放出現象を光リアルなシーンジェネレータで再構成し,イベントベースの観測をシミュレートすることで,科学的イベントカメラの利用を動機づける。
時空間データのストリームは、イベントベースのマルチオブジェクトトラッキングにおける将来の作業をサポートする。
関連論文リスト
- SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Temporal Densely Connected Recurrent Network for Event-based Human
Pose Estimation [24.367222637492787]
イベントカメラは、バイオインスパイアされた視覚センサーで、ピクセルごとの明るさが非同期に変化する。
本稿では,不完全情報の問題に対処する,新しい密結合型再帰型アーキテクチャを提案する。
この再帰的アーキテクチャにより、時間ステップをまたいだ逐次的だけでなく、非逐次的幾何的整合性も明示的にモデル化できる。
論文 参考訳(メタデータ) (2022-09-15T04:08:18Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。