論文の概要: POLAR3D: Augmenting NASA's POLAR Dataset for Data-Driven Lunar
Perception and Rover Simulation
- arxiv url: http://arxiv.org/abs/2309.12397v1
- Date: Thu, 21 Sep 2023 18:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 17:23:52.728361
- Title: POLAR3D: Augmenting NASA's POLAR Dataset for Data-Driven Lunar
Perception and Rover Simulation
- Title(参考訳): POLAR3D:データ駆動月面知覚とローバーシミュレーションのためのNASAのPOLARデータセットの拡張
- Authors: Bo-Hsun Chen, Peter Negrut, Thomas Liang, Nevindu Batagoda, Harry
Zhang, Dan Negrut
- Abstract要約: POLARデータセットに各写真に注釈を付け、岩とその影のラベルを約2万枚提供しました。
POLARデータセットで利用可能ないくつかの月面地形シナリオをデジタル化した。
POLAR3Dは、月の地形シナリオのデジタルツインに関連する岩と陰のラベルとObjファイルからなるデジタル資産のセットである。
- 参考スコア(独自算出の注目度): 2.0272430076690027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report on an effort that led to POLAR3D, a set of digital assets that
enhance the POLAR dataset of stereo images generated by NASA to mimic lunar
lighting conditions. Our contributions are twofold. First, we have annotated
each photo in the POLAR dataset, providing approximately 23 000 labels for
rocks and their shadows. Second, we digitized several lunar terrain scenarios
available in the POLAR dataset. Specifically, by utilizing both the lunar
photos and the POLAR's LiDAR point clouds, we constructed detailed obj files
for all identifiable assets. POLAR3D is the set of digital assets comprising of
rock/shadow labels and obj files associated with the digital twins of lunar
terrain scenarios. This new dataset can be used for training perception
algorithms for lunar exploration and synthesizing photorealistic images beyond
the original POLAR collection. Likewise, the obj assets can be integrated into
simulation environments to facilitate realistic rover operations in a digital
twin of a POLAR scenario. POLAR3D is publicly available to aid perception
algorithm development, camera simulation efforts, and lunar simulation
exercises.POLAR3D is publicly available at
https://github.com/uwsbel/POLAR-digital.
- Abstract(参考訳): POLAR3Dは、NASAが生成したステレオ画像のPOLARデータセットを強化し、月の照明条件を模倣するデジタルアセットである。
私たちの貢献は2倍です。
まず、POLARデータセットに各写真に注釈を付け、岩とその影のラベルを約2万枚提供しました。
第2に、POLARデータセットで利用可能ないくつかの月面地形シナリオをデジタル化した。
具体的には、月の写真とPOLARのLiDAR点雲の両方を利用して、特定可能なすべての資産の詳細なobjファイルを構築した。
POLAR3Dは、月の地形シナリオのデジタルツインに関連する岩と陰のラベルとObjファイルからなるデジタル資産のセットである。
この新しいデータセットは、月探査のための知覚アルゴリズムのトレーニングや、オリジナルのPOLARコレクションを超えて光リアル画像の合成に使用することができる。
同様に、obj資産はシミュレーション環境に統合することができ、極性シナリオのデジタル双生児の現実的なローバー操作が容易になる。
POLAR3Dは認識アルゴリズムの開発、カメラシミュレーション、月面シミュレーションの演習を支援するために公開されており、https://github.com/uwsbel/POLAR-digital.comで公開されている。
関連論文リスト
- LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - 3MOS: Multi-sources, Multi-resolutions, and Multi-scenes dataset for Optical-SAR image matching [6.13702551312774]
光SAR画像マッチングのための大規模マルチソース、マルチ解像度、マルチシーンデータセット(3MOS)を紹介する。
6つの商用衛星からのSARデータを含む155Kの光学SAR画像対で構成され、解像度は1.25mから12.5mである。
データは、都市、農村、平野、丘、山、水、砂漠、凍った土を含む8つのシーンに分類されている。
論文 参考訳(メタデータ) (2024-04-01T00:31:11Z) - Fewshot learning on global multimodal embeddings for earth observation
tasks [5.057850174013128]
地球の総面積の10%以上をカバーする衛星画像の3つの異なるモードを用いて、CLIP/ViTベースのモデルを事前訓練する。
我々は、従来の機械学習手法を用いて、各モードで生成された埋め込みを用いて、地球観測のために異なる下流タスクを試みている。
ラベルのない埋め込み空間は、私たちが選択したラベル付きデータセットで表される異なる地球の特徴に感受性があることを視覚的に示す。
論文 参考訳(メタデータ) (2023-09-29T20:15:52Z) - An Open Hyperspectral Dataset with Sea-Land-Cloud Ground-Truth from the
HYPSO-1 Satellite [0.0]
HYPSO-1Sea-Land-Cloud-Labeledデータセットは、HYPSO-1ミッションから200の多様なハイパースペクトル画像を持つオープンデータセットである。
これらの画像のうち38枚は、海と陸とクラウドのカテゴリにラベル付けされた約2500万のスペクトルシグネチャで、ピクセルレベルの地平線ラベルを含んでいる。
論文 参考訳(メタデータ) (2023-08-25T21:35:22Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft [0.0]
宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
論文 参考訳(メタデータ) (2022-11-22T01:30:40Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。