論文の概要: POLAR3D: Augmenting NASA's POLAR Dataset for Data-Driven Lunar
Perception and Rover Simulation
- arxiv url: http://arxiv.org/abs/2309.12397v1
- Date: Thu, 21 Sep 2023 18:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 17:23:52.728361
- Title: POLAR3D: Augmenting NASA's POLAR Dataset for Data-Driven Lunar
Perception and Rover Simulation
- Title(参考訳): POLAR3D:データ駆動月面知覚とローバーシミュレーションのためのNASAのPOLARデータセットの拡張
- Authors: Bo-Hsun Chen, Peter Negrut, Thomas Liang, Nevindu Batagoda, Harry
Zhang, Dan Negrut
- Abstract要約: POLARデータセットに各写真に注釈を付け、岩とその影のラベルを約2万枚提供しました。
POLARデータセットで利用可能ないくつかの月面地形シナリオをデジタル化した。
POLAR3Dは、月の地形シナリオのデジタルツインに関連する岩と陰のラベルとObjファイルからなるデジタル資産のセットである。
- 参考スコア(独自算出の注目度): 2.0272430076690027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report on an effort that led to POLAR3D, a set of digital assets that
enhance the POLAR dataset of stereo images generated by NASA to mimic lunar
lighting conditions. Our contributions are twofold. First, we have annotated
each photo in the POLAR dataset, providing approximately 23 000 labels for
rocks and their shadows. Second, we digitized several lunar terrain scenarios
available in the POLAR dataset. Specifically, by utilizing both the lunar
photos and the POLAR's LiDAR point clouds, we constructed detailed obj files
for all identifiable assets. POLAR3D is the set of digital assets comprising of
rock/shadow labels and obj files associated with the digital twins of lunar
terrain scenarios. This new dataset can be used for training perception
algorithms for lunar exploration and synthesizing photorealistic images beyond
the original POLAR collection. Likewise, the obj assets can be integrated into
simulation environments to facilitate realistic rover operations in a digital
twin of a POLAR scenario. POLAR3D is publicly available to aid perception
algorithm development, camera simulation efforts, and lunar simulation
exercises.POLAR3D is publicly available at
https://github.com/uwsbel/POLAR-digital.
- Abstract(参考訳): POLAR3Dは、NASAが生成したステレオ画像のPOLARデータセットを強化し、月の照明条件を模倣するデジタルアセットである。
私たちの貢献は2倍です。
まず、POLARデータセットに各写真に注釈を付け、岩とその影のラベルを約2万枚提供しました。
第2に、POLARデータセットで利用可能ないくつかの月面地形シナリオをデジタル化した。
具体的には、月の写真とPOLARのLiDAR点雲の両方を利用して、特定可能なすべての資産の詳細なobjファイルを構築した。
POLAR3Dは、月の地形シナリオのデジタルツインに関連する岩と陰のラベルとObjファイルからなるデジタル資産のセットである。
この新しいデータセットは、月探査のための知覚アルゴリズムのトレーニングや、オリジナルのPOLARコレクションを超えて光リアル画像の合成に使用することができる。
同様に、obj資産はシミュレーション環境に統合することができ、極性シナリオのデジタル双生児の現実的なローバー操作が容易になる。
POLAR3Dは認識アルゴリズムの開発、カメラシミュレーション、月面シミュレーションの演習を支援するために公開されており、https://github.com/uwsbel/POLAR-digital.comで公開されている。
関連論文リスト
- LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - SPIN: Spacecraft Imagery for Navigation [8.155713824482767]
本研究では、2つの宇宙船間の相対航法のためのオープンソースのリアルな宇宙船画像生成ツールSPINを提案する。
SPINはさまざまな地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
実空間条件をシミュレートする一般的なテストベッドデータにおいて,平均誤差を50%削減することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:35:39Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Den-SOFT: Dense Space-Oriented Light Field DataseT for 6-DOF Immersive Experience [28.651514326042648]
我々は,移動式マルチカメラ大空間高密度光場キャプチャシステムを構築した。
本研究の目的は,一般的な3次元シーン再構築アルゴリズムの開発に貢献することである。
収集されたデータセットは、既存のデータセットよりもはるかに密度が高い。
論文 参考訳(メタデータ) (2024-03-15T02:39:44Z) - Image-Pointcloud Fusion based Anomaly Detection using PD-REAL Dataset [15.212031255539022]
PD-REALは3次元領域における非教師なし異常検出(AD)のための新しい大規模データセットである。
ADタスクにおける2Dのみの表現は、照明条件や撮影角度の不確実性により、異常の幾何学的構造を捉えるのに失敗する可能性があるという事実に動機づけられている。
PD-REALは、15のオブジェクトカテゴリのためのPlay-Dohモデルで構成されており、制御された環境での3D情報による潜在的な利益の分析に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-07T16:05:27Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning [0.0]
本研究では,月面物体の視覚に基づくロボットグリップにおける深部強化学習の適用性について検討する。
エージェントを困難な条件下で訓練するために、手続き的に生成されたデータセットを用いた新しいシミュレーション環境を作成する。
モデルなしの非政治的アクター批判アルゴリズムは、ポリシーのエンドツーエンド学習に使用される。
論文 参考訳(メタデータ) (2022-08-01T12:59:03Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。