論文の概要: STPLS3D: A Large-Scale Synthetic and Real Aerial Photogrammetry 3D Point
Cloud Dataset
- arxiv url: http://arxiv.org/abs/2203.09065v1
- Date: Thu, 17 Mar 2022 03:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:39:59.619280
- Title: STPLS3D: A Large-Scale Synthetic and Real Aerial Photogrammetry 3D Point
Cloud Dataset
- Title(参考訳): stpls3d - 大規模合成および実航空写真撮影用3dポイントクラウドデータセット
- Authors: Meida Chen, Qingyong Hu, Thomas Hugues, Andrew Feng, Yu Hou, Kyle
McCullough, Lucio Soibelman
- Abstract要約: 本稿では,合成空中測光点雲生成パイプラインを提案する。
仮想ゲームで合成データを生成するのとは異なり、提案したパイプラインは実環境の再構築プロセスをシミュレートする。
我々は、リッチな注釈付き合成3D空中測光点クラウドデータセットを提案する。
- 参考スコア(独自算出の注目度): 6.812704277866377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although various 3D datasets with different functions and scales have been
proposed recently, it remains challenging for individuals to complete the whole
pipeline of large-scale data collection, sanitization, and annotation.
Moreover, the created datasets usually suffer from extremely imbalanced class
distribution or partial low-quality data samples. Motivated by this, we explore
the procedurally synthetic 3D data generation paradigm to equip individuals
with the full capability of creating large-scale annotated photogrammetry point
clouds. Specifically, we introduce a synthetic aerial photogrammetry point
clouds generation pipeline that takes full advantage of open geospatial data
sources and off-the-shelf commercial packages. Unlike generating synthetic data
in virtual games, where the simulated data usually have limited gaming
environments created by artists, the proposed pipeline simulates the
reconstruction process of the real environment by following the same UAV flight
pattern on different synthetic terrain shapes and building densities, which
ensure similar quality, noise pattern, and diversity with real data. In
addition, the precise semantic and instance annotations can be generated fully
automatically, avoiding the expensive and time-consuming manual annotation.
Based on the proposed pipeline, we present a richly-annotated synthetic 3D
aerial photogrammetry point cloud dataset, termed STPLS3D, with more than 16
$km^2$ of landscapes and up to 18 fine-grained semantic categories. For
verification purposes, we also provide a parallel dataset collected from four
areas in the real environment. Extensive experiments conducted on our datasets
demonstrate the effectiveness and quality of the proposed synthetic dataset.
- Abstract(参考訳): 近年,様々な機能やスケールの3dデータセットが提案されているが,大規模データ収集,衛生化,アノテーションのパイプライン全体を完成させるのは難しいままである。
さらに、生成されたデータセットは通常、極めて不均衡なクラス分布や部分的な低品質データサンプルに悩まされる。
そこで本研究では,3dデータ生成手法を用いて,大規模アノテーテッド・フォトグラメトリー・ポイント・クラウドを作製する能力を個人に与える方法について検討する。
具体的には,オープンな地理空間データソースと市販の商用パッケージをフル活用した合成空中測光点雲生成パイプラインを提案する。
シミュレーションデータは通常アーティストが生成する限られたゲーム環境を持つ仮想ゲームにおいて合成データを生成するのとは異なり、提案したパイプラインは、異なる合成地形形状に同じUAV飛行パターンを追従し、実際のデータで同様の品質、ノイズパターン、多様性を保証することで、実際の環境の再構築プロセスをシミュレートする。
さらに、正確なセマンティックアノテーションとインスタンスアノテーションが完全に自動生成され、高価で時間を要するマニュアルアノテーションを避けることができる。
提案するパイプラインに基づいて,stls3dと呼ばれる,高度に注釈付き合成された3次元航空写真計測ポイントクラウドデータセットを提示する。
検証のために,実環境の4つの領域から収集した並列データセットも提供する。
提案した合成データセットの有効性と品質について実験を行った。
関連論文リスト
- SyntheOcc: Synthesize Geometric-Controlled Street View Images through 3D Semantic MPIs [34.41011015930057]
SyntheOccは、2次元拡散モデルに対する条件入力として3次元幾何学情報を効率的にエンコードする方法の課題に対処する。
提案手法は,3次元意味的マルチプレーン画像(MPI)を革新的に組み込んで,包括的かつ空間的に整合した3次元シーン記述を提供する。
論文 参考訳(メタデータ) (2024-10-01T02:29:24Z) - SynRS3D: A Synthetic Dataset for Global 3D Semantic Understanding from Monocular Remote Sensing Imagery [17.364630812389038]
単一視点高分解能リモートセンシング(RS)画像からのグローバルセマンティック3D理解は地球観測(EO)に不可欠である
我々は、EOのための特殊な合成データ生成パイプラインを開発し、最大の合成RS3DデータセットであるSynRS3Dを紹介する。
SynRS3Dは69,667個の高解像度光学画像で構成されており、世界中の6つの異なる都市スタイルをカバーし、8種類のランドカバー、正確な高さ情報、建築変更マスクを備えている。
論文 参考訳(メタデータ) (2024-06-26T08:04:42Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - Cross-Domain Synthetic-to-Real In-the-Wild Depth and Normal Estimation for 3D Scene Understanding [5.561698802097603]
クロスドメイン推論技術は合成データから学習し、地中一方向の3Dシーンの深さと正常度を推定する。
UBotNetは、UNetとBottleneck Transformer要素を組み合わせて、一貫したシーンの正規性と深さを予測するアーキテクチャである。
我々は,我々の合成OmniHorizonデータセットのみをトレーニングしたUBotNetを用いて,実際の屋外画像に対するドメイン間合成-実深度と正規推定の有効性を検証した。
論文 参考訳(メタデータ) (2022-12-09T18:40:12Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - SynLiDAR: Learning From Synthetic LiDAR Sequential Point Cloud for
Semantic Segmentation [37.00112978096702]
SynLiDARは、正確な幾何学的形状と包括的なセマンティッククラスを備えた合成LiDARポイントクラウドデータセットである。
PCT-Netは、現実世界のポイントクラウドデータとのギャップを狭めることを目的としたポイントクラウド翻訳ネットワークである。
複数のデータ拡張および半教師付きセマンティックセグメンテーションタスクに対する実験は、非常に肯定的な結果を示す。
論文 参考訳(メタデータ) (2021-07-12T12:51:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。