論文の概要: POLAR-Sim: Augmenting NASA's POLAR Dataset for Data-Driven Lunar Perception and Rover Simulation
- arxiv url: http://arxiv.org/abs/2309.12397v2
- Date: Thu, 23 Jan 2025 22:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 20:40:39.344028
- Title: POLAR-Sim: Augmenting NASA's POLAR Dataset for Data-Driven Lunar Perception and Rover Simulation
- Title(参考訳): POLAR-Sim:データ駆動月面知覚とローバーシミュレーションのためのNASAのPOLARデータセットの拡張
- Authors: Bo-Hsun Chen, Peter Negrut, Thomas Liang, Nevindu Batagoda, Harry Zhang, Dan Negrut,
- Abstract要約: NASAのPOLARデータセットには、約2,600対の高ダイナミックレンジステレオ写真が含まれている。
これらの写真の目的は、ロボット工学、AIに基づく認識、そして自律的なナビゲーションの開発を促進することである。
この作業により、カメラモデルを持つ誰でも、POLARデータセットの13のシナリオのいずれかに関連する画像を合成できる。
- 参考スコア(独自算出の注目度): 1.9131868049527916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NASA's POLAR dataset contains approximately 2,600 pairs of high dynamic range stereo photos captured across 13 varied terrain scenarios, including areas with sparse or dense rock distributions, craters, and rocks of different sizes. The purpose of these photos is to spur development in robotics, AI-based perception, and autonomous navigation. Acknowledging a scarcity of lunar images from around the lunar poles, NASA Ames produced on Earth but in controlled conditions images that resemble rover operating conditions from these regions of the Moon. We report on the outcomes of an effort aimed at accomplishing two tasks. In Task 1, we provided bounding boxes and semantic segmentation information for all the images in NASA's POLAR dataset. This effort resulted in 23,000 labels and semantic segmentation annotations pertaining to rocks, shadows, and craters. In Task 2, we generated the digital twins of the 13 scenarios that have been used to produce all the photos in the POLAR dataset. Specifically, for each of these scenarios, we produced individual meshes, texture information, and material properties associated with the ground and the rocks in each scenario. This allows anyone with a camera model to synthesize images associated with any of the 13 scenarios of the POLAR dataset. Effectively, one can generate as many semantically labeled synthetic images as desired -- with different locations and exposure values in the scene, for different positions of the sun, with or without the presence of active illumination, etc. The benefit of this work is twofold. Using outcomes of Task 1, one can train and/or test perception algorithms that deal with Moon images. For Task 2, one can produce as much data as desired to train and test AI algorithms that are anticipated to work in lunar conditions. All the outcomes of this work are available in a public repository for unfettered use and distribution.
- Abstract(参考訳): NASAのPOLARデータセットには、13の様々な地形シナリオで撮影された約2,600対の高ダイナミックレンジステレオ写真が含まれている。
これらの写真の目的は、ロボット工学、AIに基づく認識、そして自律的なナビゲーションの開発を促進することである。
月の極付近の月面画像が不足していることを認識したNASA Amesは、月面のこれらの領域のローバー操作条件に似た制御された条件下で、地球上で生成した。
本稿では,2つの課題を達成するための取り組みの結果について報告する。
Task 1では、NASAのPOLARデータセットにあるすべての画像に対して、バウンディングボックスとセマンティックセグメンテーション情報を提供しました。
この試みにより、岩、影、クレーターに関連する23,000のラベルとセマンティックセグメンテーションアノテーションが得られた。
タスク2では、POLARデータセット内のすべての写真を生成するために使用される13のシナリオのデジタルツインを生成しました。
具体的には、これらのシナリオ毎に、各シナリオにおける地面と岩石に関連する個々のメッシュ、テクスチャ情報、材料特性を生成しました。
これにより、カメラモデルを持つ誰でも、POLARデータセットの13のシナリオのいずれかに関連する画像を合成することができる。
効果的に、シーン内の異なる位置と露光値、太陽の位置の異なる位置、アクティブな照明の有無などで、できるだけ多くのセマンティックにラベル付けされた合成画像を生成することができる。
この仕事の利点は2つある。
Task 1の結果を使って、月画像を扱う知覚アルゴリズムを訓練したり、テストしたりできる。
Task 2では、月面環境で動作することが期待されるAIアルゴリズムをトレーニングし、テストするために、必要なだけのデータを生成することができる。
この作業の結果はすべて、公開リポジトリで公開されており、未使用の使用と配布が可能である。
関連論文リスト
- LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - SPIN: Spacecraft Imagery for Navigation [8.155713824482767]
本研究では、2つの宇宙船間の相対航法のためのオープンソースのリアルな宇宙船画像生成ツールSPINを提案する。
SPINはさまざまな地上データを提供し、研究者は衛星のカスタム3Dモデルを使用することができる。
実空間条件をシミュレートする一般的なテストベッドデータにおいて,平均誤差を50%削減することを示す。
論文 参考訳(メタデータ) (2024-06-11T17:35:39Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - 3MOS: Multi-sources, Multi-resolutions, and Multi-scenes dataset for Optical-SAR image matching [6.13702551312774]
光SAR画像マッチングのための大規模マルチソース、マルチ解像度、マルチシーンデータセット(3MOS)を紹介する。
6つの商用衛星からのSARデータを含む155Kの光学SAR画像対で構成され、解像度は1.25mから12.5mである。
データは、都市、農村、平野、丘、山、水、砂漠、凍った土を含む8つのシーンに分類されている。
論文 参考訳(メタデータ) (2024-04-01T00:31:11Z) - Den-SOFT: Dense Space-Oriented Light Field DataseT for 6-DOF Immersive Experience [28.651514326042648]
我々は,移動式マルチカメラ大空間高密度光場キャプチャシステムを構築した。
本研究の目的は,一般的な3次元シーン再構築アルゴリズムの開発に貢献することである。
収集されたデータセットは、既存のデータセットよりもはるかに密度が高い。
論文 参考訳(メタデータ) (2024-03-15T02:39:44Z) - Image-Pointcloud Fusion based Anomaly Detection using PD-REAL Dataset [15.212031255539022]
PD-REALは3次元領域における非教師なし異常検出(AD)のための新しい大規模データセットである。
ADタスクにおける2Dのみの表現は、照明条件や撮影角度の不確実性により、異常の幾何学的構造を捉えるのに失敗する可能性があるという事実に動機づけられている。
PD-REALは、15のオブジェクトカテゴリのためのPlay-Dohモデルで構成されており、制御された環境での3D情報による潜在的な利益の分析に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-07T16:05:27Z) - Fewshot learning on global multimodal embeddings for earth observation
tasks [5.057850174013128]
地球の総面積の10%以上をカバーする衛星画像の3つの異なるモードを用いて、CLIP/ViTベースのモデルを事前訓練する。
我々は、従来の機械学習手法を用いて、各モードで生成された埋め込みを用いて、地球観測のために異なる下流タスクを試みている。
ラベルのない埋め込み空間は、私たちが選択したラベル付きデータセットで表される異なる地球の特徴に感受性があることを視覚的に示す。
論文 参考訳(メタデータ) (2023-09-29T20:15:52Z) - An Open Hyperspectral Dataset with Sea-Land-Cloud Ground-Truth from the
HYPSO-1 Satellite [0.0]
HYPSO-1Sea-Land-Cloud-Labeledデータセットは、HYPSO-1ミッションから200の多様なハイパースペクトル画像を持つオープンデータセットである。
これらの画像のうち38枚は、海と陸とクラウドのカテゴリにラベル付けされた約2500万のスペクトルシグネチャで、ピクセルレベルの地平線ラベルを含んでいる。
論文 参考訳(メタデータ) (2023-08-25T21:35:22Z) - SurroundOcc: Multi-Camera 3D Occupancy Prediction for Autonomous Driving [98.74706005223685]
3Dシーン理解は、視覚に基づく自動運転において重要な役割を果たす。
マルチカメラ画像を用いたSurroundOcc法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:59:08Z) - Point Cloud Forecasting as a Proxy for 4D Occupancy Forecasting [58.45661235893729]
有望な自己管理タスクの1つは、注釈のないLiDARシーケンスからの3Dポイントクラウド予測である。
本課題は,(1)センサ外在物(自動運転車の移動),(2)センサ内在物(特定のLiDARセンサに特有のサンプリングパターン),(3)シーン内の他の物体の形状と動きを暗黙的にキャプチャするアルゴリズムを必要とすることを示す。
センサ外在性および内在性に関する4D占有率予測のポイントクラウドデータをレンダリングすることにより、注釈のないLiDARシーケンスで占有率アルゴリズムをトレーニングし、テストすることができる。
論文 参考訳(メタデータ) (2023-02-25T18:12:37Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Synthetic Data for Semantic Image Segmentation of Imagery of Unmanned
Spacecraft [0.0]
宇宙空間で活動している他の宇宙船から撮影された宇宙船の画像は入手が困難である。
本稿では,他のタスクに一般化可能なセグメンテーションのためのラベル付き合成画像データを生成する手法を提案する。
本研究は,これらの合成データに対する強力なベンチマーク結果を示し,この課題に対して良好な画像分割モデルの訓練を行うことが可能であることを示唆する。
論文 参考訳(メタデータ) (2022-11-22T01:30:40Z) - Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning [0.0]
本研究では,月面物体の視覚に基づくロボットグリップにおける深部強化学習の適用性について検討する。
エージェントを困難な条件下で訓練するために、手続き的に生成されたデータセットを用いた新しいシミュレーション環境を作成する。
モデルなしの非政治的アクター批判アルゴリズムは、ポリシーのエンドツーエンド学習に使用される。
論文 参考訳(メタデータ) (2022-08-01T12:59:03Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。