論文の概要: POLAR-Sim: Augmenting NASA's POLAR Dataset for Data-Driven Lunar Perception and Rover Simulation
- arxiv url: http://arxiv.org/abs/2309.12397v2
- Date: Thu, 23 Jan 2025 22:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:54:29.097042
- Title: POLAR-Sim: Augmenting NASA's POLAR Dataset for Data-Driven Lunar Perception and Rover Simulation
- Title(参考訳): POLAR-Sim:データ駆動月面知覚とローバーシミュレーションのためのNASAのPOLARデータセットの拡張
- Authors: Bo-Hsun Chen, Peter Negrut, Thomas Liang, Nevindu Batagoda, Harry Zhang, Dan Negrut,
- Abstract要約: NASAのPOLARデータセットには、約2,600対の高ダイナミックレンジステレオ写真が含まれている。
これらの写真の目的は、ロボット工学、AIに基づく認識、そして自律的なナビゲーションの開発を促進することである。
この作業により、カメラモデルを持つ誰でも、POLARデータセットの13のシナリオのいずれかに関連する画像を合成できる。
- 参考スコア(独自算出の注目度): 1.9131868049527916
- License:
- Abstract: NASA's POLAR dataset contains approximately 2,600 pairs of high dynamic range stereo photos captured across 13 varied terrain scenarios, including areas with sparse or dense rock distributions, craters, and rocks of different sizes. The purpose of these photos is to spur development in robotics, AI-based perception, and autonomous navigation. Acknowledging a scarcity of lunar images from around the lunar poles, NASA Ames produced on Earth but in controlled conditions images that resemble rover operating conditions from these regions of the Moon. We report on the outcomes of an effort aimed at accomplishing two tasks. In Task 1, we provided bounding boxes and semantic segmentation information for all the images in NASA's POLAR dataset. This effort resulted in 23,000 labels and semantic segmentation annotations pertaining to rocks, shadows, and craters. In Task 2, we generated the digital twins of the 13 scenarios that have been used to produce all the photos in the POLAR dataset. Specifically, for each of these scenarios, we produced individual meshes, texture information, and material properties associated with the ground and the rocks in each scenario. This allows anyone with a camera model to synthesize images associated with any of the 13 scenarios of the POLAR dataset. Effectively, one can generate as many semantically labeled synthetic images as desired -- with different locations and exposure values in the scene, for different positions of the sun, with or without the presence of active illumination, etc. The benefit of this work is twofold. Using outcomes of Task 1, one can train and/or test perception algorithms that deal with Moon images. For Task 2, one can produce as much data as desired to train and test AI algorithms that are anticipated to work in lunar conditions. All the outcomes of this work are available in a public repository for unfettered use and distribution.
- Abstract(参考訳): NASAのPOLARデータセットには、13の様々な地形シナリオで撮影された約2,600対の高ダイナミックレンジステレオ写真が含まれている。
これらの写真の目的は、ロボット工学、AIに基づく認識、そして自律的なナビゲーションの開発を促進することである。
月の極付近の月面画像が不足していることを認識したNASA Amesは、月面のこれらの領域のローバー操作条件に似た制御された条件下で、地球上で生成した。
本稿では,2つの課題を達成するための取り組みの結果について報告する。
Task 1では、NASAのPOLARデータセットにあるすべての画像に対して、バウンディングボックスとセマンティックセグメンテーション情報を提供しました。
この試みにより、岩、影、クレーターに関連する23,000のラベルとセマンティックセグメンテーションアノテーションが得られた。
タスク2では、POLARデータセット内のすべての写真を生成するために使用される13のシナリオのデジタルツインを生成しました。
具体的には、これらのシナリオ毎に、各シナリオにおける地面と岩石に関連する個々のメッシュ、テクスチャ情報、材料特性を生成しました。
これにより、カメラモデルを持つ誰でも、POLARデータセットの13のシナリオのいずれかに関連する画像を合成することができる。
効果的に、シーン内の異なる位置と露光値、太陽の位置の異なる位置、アクティブな照明の有無などで、できるだけ多くのセマンティックにラベル付けされた合成画像を生成することができる。
この仕事の利点は2つある。
Task 1の結果を使って、月画像を扱う知覚アルゴリズムを訓練したり、テストしたりできる。
Task 2では、月面環境で動作することが期待されるAIアルゴリズムをトレーニングし、テストするために、必要なだけのデータを生成することができる。
この作業の結果はすべて、公開リポジトリで公開されており、未使用の使用と配布が可能である。
関連論文リスト
- LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - 3MOS: Multi-sources, Multi-resolutions, and Multi-scenes dataset for Optical-SAR image matching [6.13702551312774]
光SAR画像マッチングのための大規模マルチソース、マルチ解像度、マルチシーンデータセット(3MOS)を紹介する。
6つの商用衛星からのSARデータを含む155Kの光学SAR画像対で構成され、解像度は1.25mから12.5mである。
データは、都市、農村、平野、丘、山、水、砂漠、凍った土を含む8つのシーンに分類されている。
論文 参考訳(メタデータ) (2024-04-01T00:31:11Z) - Fewshot learning on global multimodal embeddings for earth observation
tasks [5.057850174013128]
地球の総面積の10%以上をカバーする衛星画像の3つの異なるモードを用いて、CLIP/ViTベースのモデルを事前訓練する。
我々は、従来の機械学習手法を用いて、各モードで生成された埋め込みを用いて、地球観測のために異なる下流タスクを試みている。
ラベルのない埋め込み空間は、私たちが選択したラベル付きデータセットで表される異なる地球の特徴に感受性があることを視覚的に示す。
論文 参考訳(メタデータ) (2023-09-29T20:15:52Z) - An Open Hyperspectral Dataset with Sea-Land-Cloud Ground-Truth from the
HYPSO-1 Satellite [0.0]
HYPSO-1Sea-Land-Cloud-Labeledデータセットは、HYPSO-1ミッションから200の多様なハイパースペクトル画像を持つオープンデータセットである。
これらの画像のうち38枚は、海と陸とクラウドのカテゴリにラベル付けされた約2500万のスペクトルシグネチャで、ピクセルレベルの地平線ラベルを含んでいる。
論文 参考訳(メタデータ) (2023-08-25T21:35:22Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft [0.0]
宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
論文 参考訳(メタデータ) (2022-11-22T01:30:40Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。