論文の概要: On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing
- arxiv url: http://arxiv.org/abs/2308.00394v1
- Date: Tue, 1 Aug 2023 09:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:53:11.689938
- Title: On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing
- Title(参考訳): ナビゲーションと着陸のための合成イベントベース視覚データセットの作成について
- Authors: Lo\"ic J. Azzalini and Emmanuel Blazquez and Alexander Hadjiivanov and
Gabriele Meoni and Dario Izzo
- Abstract要約: 本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
- 参考スコア(独自算出の注目度): 69.34740063574921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An event-based camera outputs an event whenever a change in scene brightness
of a preset magnitude is detected at a particular pixel location in the sensor
plane. The resulting sparse and asynchronous output coupled with the high
dynamic range and temporal resolution of this novel camera motivate the study
of event-based cameras for navigation and landing applications. However, the
lack of real-world and synthetic datasets to support this line of research has
limited its consideration for onboard use. This paper presents a methodology
and a software pipeline for generating event-based vision datasets from optimal
landing trajectories during the approach of a target body. We construct
sequences of photorealistic images of the lunar surface with the Planet and
Asteroid Natural Scene Generation Utility at different viewpoints along a set
of optimal descent trajectories obtained by varying the boundary conditions.
The generated image sequences are then converted into event streams by means of
an event-based camera emulator. We demonstrate that the pipeline can generate
realistic event-based representations of surface features by constructing a
dataset of 500 trajectories, complete with event streams and motion field
ground truth data. We anticipate that novel event-based vision datasets can be
generated using this pipeline to support various spacecraft pose reconstruction
problems given events as input, and we hope that the proposed methodology would
attract the attention of researchers working at the intersection of
neuromorphic vision and guidance navigation and control.
- Abstract(参考訳): イベントベースカメラは、センサ面内の特定の画素位置において、予め設定された大きさのシーン輝度の変化が検出されたときにイベントを出力する。
この新しいカメラの高ダイナミックレンジと時間分解能と組み合わされたスパースと非同期出力は、ナビゲーションと着陸のためのイベントベースカメラの研究を動機付けている。
しかしながら、この一連の研究をサポートするための現実世界と合成データセットの欠如は、オンボード使用に対する考慮を制限している。
本稿では,目標物体接近時の最適着陸軌道からイベントベース視覚データセットを生成するための方法論とソフトウェアパイプラインを提案する。
本研究では,惑星と小惑星による月面の光学的画像のシーケンスを,境界条件の変化によって得られた最適降下軌道のセットに沿って,異なる視点で構築する。
生成された画像シーケンスは、イベントベースのカメラエミュレータによってイベントストリームに変換される。
このパイプラインは,500の軌跡のデータセットを構築し,イベントストリームとモーションフィールド・グランド・トゥルートデータを完備することにより,現実のイベントベースの表面特徴表現を生成できることを実証する。
我々は、このパイプラインを使用して、入力としてイベントが与えられた様々な宇宙船のポーズ再構成問題をサポートするために、新しいイベントベースのビジョンデータセットが生成されることを予測し、提案手法が神経形態的視覚と誘導ナビゲーションと制御の交点で働く研究者の注意を引き付けることを期待している。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Research, Applications and Prospects of Event-Based Pedestrian Detection: A Survey [10.494414329120909]
生物学的網膜にインスパイアされたイベントベースのカメラは、最小限の電力要求、無視できるレイテンシ、時間分解能、拡張可能なダイナミックレンジによって区別される最先端のセンサーへと進化してきた。
イベントベースのカメラは、高速撮像のシナリオにおいて、外部データ伝送を誘発し、動きのぼやけをなくすことによって制限に対処する。
本稿では,特に自律運転における研究と応用について概観する。
論文 参考訳(メタデータ) (2024-07-05T06:17:00Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision [6.464577943887317]
OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:07:42Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。