論文の概要: Synthetic Lunar Terrain: A Multimodal Open Dataset for Training and Evaluating Neuromorphic Vision Algorithms
- arxiv url: http://arxiv.org/abs/2408.16971v1
- Date: Fri, 30 Aug 2024 02:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 16:39:11.556722
- Title: Synthetic Lunar Terrain: A Multimodal Open Dataset for Training and Evaluating Neuromorphic Vision Algorithms
- Title(参考訳): Synthetic Lunar Terrain:ニューロモルフィック視覚アルゴリズムの訓練と評価のためのマルチモーダルオープンデータセット
- Authors: Marcus Märtens, Kevin Farries, John Culton, Tat-Jun Chin,
- Abstract要約: SLT(Synthetic Lunar Terrain)は、月探査のための類似試験場から収集されたオープンデータセットである。
イベントベースおよび従来のRGBカメラからの複数のサイドバイサイドキャプチャを含む。
イベントベースカメラのニューロモルフィック視覚センサから記録されるイベントストリームは特に興味深い。
- 参考スコア(独自算出の注目度): 18.85150427551313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic Lunar Terrain (SLT) is an open dataset collected from an analogue test site for lunar missions, featuring synthetic craters in a high-contrast lighting setup. It includes several side-by-side captures from event-based and conventional RGB cameras, supplemented with a high-resolution 3D laser scan for depth estimation. The event-stream recorded from the neuromorphic vision sensor of the event-based camera is of particular interest as this emerging technology provides several unique advantages, such as high data rates, low energy consumption and resilience towards scenes of high dynamic range. SLT provides a solid foundation to analyse the limits of RGB-cameras and potential advantages or synergies in utilizing neuromorphic visions with the goal of enabling and improving lunar specific applications like rover navigation, landing in cratered environments or similar.
- Abstract(参考訳): SLT(Synthetic Lunar Terrain)は、月探査のための類似の試験場から収集されたオープンデータセットで、合成クレーターを高コントラストの照明装置に収めている。
イベントベースおよび従来のRGBカメラからのサイドバイサイドキャプチャがいくつか含まれており、奥行き推定のために高解像度の3Dレーザースキャンが付属している。
イベントベースカメラのニューロモルフィック視覚センサから記録されたイベントストリームは、この新興技術が、高データレート、低エネルギー消費、高ダイナミックレンジのシーンに対するレジリエンスなど、いくつかのユニークな利点を提供するため、特に興味深い。
SLTは、RGBカメラの限界を分析し、ニューロモルフィックなビジョンを利用する際の潜在的な利点やシナジーを解析するための確かな基盤を提供する。
関連論文リスト
- Mixing Data-driven and Geometric Models for Satellite Docking Port State Estimation using an RGB or Event Camera [4.9788231201543]
この研究は、最近リリースされたLockheed Martin Mission Augmentation Port (LM-MAP) をターゲットとして、衛星に依存しない運用に焦点を当てている。
本稿では,標準RGBセンサやイベントカメラの単眼視データを用いて,衛星ドッキングポートの自動検出と状態推定を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-23T22:28:09Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Hyperspectral Neural Radiance Fields [11.485829401765521]
ニューラルラジアンス場(NeRF)を用いたハイパースペクトル3次元再構成を提案する。
NeRFは、様々なカメラモデルによって捉えられたシーンの高品質なボリューム3D表現を作ることで広く成功している。
提案手法により,高速かつ高精度な3次元ハイパースペクトルシーンの創出が可能となった。
論文 参考訳(メタデータ) (2024-03-21T21:18:08Z) - Ternary-Type Opacity and Hybrid Odometry for RGB NeRF-SLAM [58.736472371951955]
表面を交差する光線上の点を3つの領域(前・前・後・後)に分類する3成分式不透明度モデルを導入する。
これにより、より正確な深度のレンダリングが可能となり、画像ワープ技術の性能が向上する。
TTとHOの統合アプローチは,合成および実世界のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-20T18:03:17Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Sat-NeRF: Learning Multi-View Satellite Photogrammetry With Transient
Objects and Shadow Modeling Using RPC Cameras [10.269997499911668]
サテライトニューラルレージアンスフィールド(Sat-NeRF)は,野生のマルチビュー衛星写真グラムを学習するための新しいエンドツーエンドモデルである。
Sat-NeRFは、ニューラルレンダリングの最新トレンドとネイティブ衛星カメラモデルを組み合わせたものだ。
我々は,異なる場所からのWorldView-3画像を用いてSat-NeRFを評価し,衛星カメラモデルにバンドル調整を適用する利点を強調した。
論文 参考訳(メタデータ) (2022-03-16T19:18:46Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。