論文の概要: STPLS3D: A Large-Scale Synthetic and Real Aerial Photogrammetry 3D Point
Cloud Dataset
- arxiv url: http://arxiv.org/abs/2203.09065v1
- Date: Thu, 17 Mar 2022 03:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 14:39:59.619280
- Title: STPLS3D: A Large-Scale Synthetic and Real Aerial Photogrammetry 3D Point
Cloud Dataset
- Title(参考訳): stpls3d - 大規模合成および実航空写真撮影用3dポイントクラウドデータセット
- Authors: Meida Chen, Qingyong Hu, Thomas Hugues, Andrew Feng, Yu Hou, Kyle
McCullough, Lucio Soibelman
- Abstract要約: 本稿では,合成空中測光点雲生成パイプラインを提案する。
仮想ゲームで合成データを生成するのとは異なり、提案したパイプラインは実環境の再構築プロセスをシミュレートする。
我々は、リッチな注釈付き合成3D空中測光点クラウドデータセットを提案する。
- 参考スコア(独自算出の注目度): 6.812704277866377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although various 3D datasets with different functions and scales have been
proposed recently, it remains challenging for individuals to complete the whole
pipeline of large-scale data collection, sanitization, and annotation.
Moreover, the created datasets usually suffer from extremely imbalanced class
distribution or partial low-quality data samples. Motivated by this, we explore
the procedurally synthetic 3D data generation paradigm to equip individuals
with the full capability of creating large-scale annotated photogrammetry point
clouds. Specifically, we introduce a synthetic aerial photogrammetry point
clouds generation pipeline that takes full advantage of open geospatial data
sources and off-the-shelf commercial packages. Unlike generating synthetic data
in virtual games, where the simulated data usually have limited gaming
environments created by artists, the proposed pipeline simulates the
reconstruction process of the real environment by following the same UAV flight
pattern on different synthetic terrain shapes and building densities, which
ensure similar quality, noise pattern, and diversity with real data. In
addition, the precise semantic and instance annotations can be generated fully
automatically, avoiding the expensive and time-consuming manual annotation.
Based on the proposed pipeline, we present a richly-annotated synthetic 3D
aerial photogrammetry point cloud dataset, termed STPLS3D, with more than 16
$km^2$ of landscapes and up to 18 fine-grained semantic categories. For
verification purposes, we also provide a parallel dataset collected from four
areas in the real environment. Extensive experiments conducted on our datasets
demonstrate the effectiveness and quality of the proposed synthetic dataset.
- Abstract(参考訳): 近年,様々な機能やスケールの3dデータセットが提案されているが,大規模データ収集,衛生化,アノテーションのパイプライン全体を完成させるのは難しいままである。
さらに、生成されたデータセットは通常、極めて不均衡なクラス分布や部分的な低品質データサンプルに悩まされる。
そこで本研究では,3dデータ生成手法を用いて,大規模アノテーテッド・フォトグラメトリー・ポイント・クラウドを作製する能力を個人に与える方法について検討する。
具体的には,オープンな地理空間データソースと市販の商用パッケージをフル活用した合成空中測光点雲生成パイプラインを提案する。
シミュレーションデータは通常アーティストが生成する限られたゲーム環境を持つ仮想ゲームにおいて合成データを生成するのとは異なり、提案したパイプラインは、異なる合成地形形状に同じUAV飛行パターンを追従し、実際のデータで同様の品質、ノイズパターン、多様性を保証することで、実際の環境の再構築プロセスをシミュレートする。
さらに、正確なセマンティックアノテーションとインスタンスアノテーションが完全に自動生成され、高価で時間を要するマニュアルアノテーションを避けることができる。
提案するパイプラインに基づいて,stls3dと呼ばれる,高度に注釈付き合成された3次元航空写真計測ポイントクラウドデータセットを提示する。
検証のために,実環境の4つの領域から収集した並列データセットも提供する。
提案した合成データセットの有効性と品質について実験を行った。
関連論文リスト
- LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - RTMV: A Ray-Traced Multi-View Synthetic Dataset for Novel View Synthesis [104.53930611219654]
約2000の複雑なシーンからレンダリングされた300k画像からなる,新しいビュー合成のための大規模合成データセットを提案する。
データセットは、新しいビュー合成のための既存の合成データセットよりも桁違いに大きい。
高品質な3Dメッシュの4つのソースを使用して、私たちのデータセットのシーンは、カメラビュー、照明、形状、材料、テクスチャの難しいバリエーションを示します。
論文 参考訳(メタデータ) (2022-05-14T13:15:32Z) - UltraPose: Synthesizing Dense Pose with 1 Billion Points by Human-body
Decoupling 3D Model [58.70130563417079]
我々は,身体の発生を自由に制御できる,一連の分離されたパラメータを持つ新しい3次元人体モデルを導入する。
既存の手動注釈付きDensePose-COCOデータセットと比較して、合成されたUltraPoseは、アノテーションのコストと誤差を伴わずに、超高密度な画像-地上対応を持つ。
論文 参考訳(メタデータ) (2021-10-28T16:24:55Z) - SynLiDAR: Learning From Synthetic LiDAR Sequential Point Cloud for
Semantic Segmentation [37.00112978096702]
SynLiDARは、正確な幾何学的形状と包括的なセマンティッククラスを備えた合成LiDARポイントクラウドデータセットである。
PCT-Netは、現実世界のポイントクラウドデータとのギャップを狭めることを目的としたポイントクラウド翻訳ネットワークである。
複数のデータ拡張および半教師付きセマンティックセグメンテーションタスクに対する実験は、非常に肯定的な結果を示す。
論文 参考訳(メタデータ) (2021-07-12T12:51:08Z) - Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models [0.0]
I/ITSEC 2019で著者らは、3Dフォトグラムのポイントクラウド/ミームをセグメント化し、オブジェクト情報を抽出する、完全に自動化されたワークフローを発表した。
最終的な目標は、現実的な仮想環境を作成し、シミュレーションに必要な情報を提供することである。
論文 参考訳(メタデータ) (2020-08-21T18:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。