論文の概要: Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models
- arxiv url: http://arxiv.org/abs/2008.09647v1
- Date: Fri, 21 Aug 2020 18:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:55:03.518525
- Title: Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models
- Title(参考訳): 深層学習に基づく3次元点雲分割モデルの学習のための合成フォトグラムデータの生成
- Authors: Meida Chen, Andrew Feng, Kyle McCullough, Pratusha Bhuvana Prasad,
Ryan McAlinden, Lucio Soibelman
- Abstract要約: I/ITSEC 2019で著者らは、3Dフォトグラムのポイントクラウド/ミームをセグメント化し、オブジェクト情報を抽出する、完全に自動化されたワークフローを発表した。
最終的な目標は、現実的な仮想環境を作成し、シミュレーションに必要な情報を提供することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: At I/ITSEC 2019, the authors presented a fully-automated workflow to segment
3D photogrammetric point-clouds/meshes and extract object information,
including individual tree locations and ground materials (Chen et al., 2019).
The ultimate goal is to create realistic virtual environments and provide the
necessary information for simulation. We tested the generalizability of the
previously proposed framework using a database created under the U.S. Army's
One World Terrain (OWT) project with a variety of landscapes (i.e., various
buildings styles, types of vegetation, and urban density) and different data
qualities (i.e., flight altitudes and overlap between images). Although the
database is considerably larger than existing databases, it remains unknown
whether deep-learning algorithms have truly achieved their full potential in
terms of accuracy, as sizable data sets for training and validation are
currently lacking. Obtaining large annotated 3D point-cloud databases is
time-consuming and labor-intensive, not only from a data annotation perspective
in which the data must be manually labeled by well-trained personnel, but also
from a raw data collection and processing perspective. Furthermore, it is
generally difficult for segmentation models to differentiate objects, such as
buildings and tree masses, and these types of scenarios do not always exist in
the collected data set. Thus, the objective of this study is to investigate
using synthetic photogrammetric data to substitute real-world data in training
deep-learning algorithms. We have investigated methods for generating synthetic
UAV-based photogrammetric data to provide a sufficiently sized database for
training a deep-learning algorithm with the ability to enlarge the data size
for scenarios in which deep-learning models have difficulties.
- Abstract(参考訳): I/ITSEC 2019で、著者らは3Dフォトグラムのポイントクラウド/ミームを分割し、個々の木の位置や地面物質を含むオブジェクト情報を抽出する、完全に自動化されたワークフローを発表した(Chen et al., 2019)。
究極の目標は、現実的な仮想環境を作り、シミュレーションに必要な情報を提供することだ。
本研究では,アメリカ陸軍のone world terrain (owt) プロジェクトにおいて,様々な景観(建築様式,植生の種類,都市密度など)と異なるデータ品質(飛行高度と画像の重なり)を備えたデータベースを用いて,提案手法の一般化性を検証した。
データベースは既存のデータベースよりもかなり大きいが、訓練や検証のための膨大なデータセットが現在不足しているため、ディープラーニングアルゴリズムが真にその潜在能力を達成したかどうかは不明だ。
大量の注釈付き3Dポイントクラウドデータベースを持つことは、データアノテーションの観点からだけでなく、データ収集や処理の観点からも、十分に訓練された人員によって手動でラベル付けする必要がある。
さらに、建物や木塊などのオブジェクトを区別するセグメンテーションモデルは一般的に困難であり、このようなシナリオが収集されたデータセットに常に存在するとは限らない。
そこで本研究の目的は,合成フォトグラムデータを用いて,ディープラーニングアルゴリズムの学習における実世界データを置き換えることにある。
我々は, 深層学習モデルが困難であるシナリオにおいて, 深層学習アルゴリズムを訓練するための十分な大きさのデータベースを提供するために, 合成UAVベースのフォトグラムデータを生成する方法を検討した。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - DeepSatData: Building large scale datasets of satellite images for
training machine learning models [77.17638664503215]
本稿では,機械学習モデルの学習のための衛星画像データセットの自動生成のための設計検討を行う。
本稿では,ニューラルネットワークの深層学習と評価の観点から直面する課題について論じる。
論文 参考訳(メタデータ) (2021-04-28T15:13:12Z) - Towards General Purpose Geometry-Preserving Single-View Depth Estimation [1.9573380763700712]
単視点深度推定(SVDE)は、ARアプリケーション、3Dモデリング、ロボット工学におけるシーン理解において重要な役割を果たす。
近年の研究では、成功するソリューションはトレーニングデータの多様性とボリュームに強く依存していることが示されている。
我々の研究は、従来のデータセットとともに、このデータに基づいてトレーニングされたモデルが、正確なシーン形状を予測しながら精度を向上できることを示している。
論文 参考訳(メタデータ) (2020-09-25T20:06:13Z) - Semantic Segmentation and Data Fusion of Microsoft Bing 3D Cities and
Small UAV-based Photogrammetric Data [0.0]
著者らは、UAVベースのフォトグラムデータを用いてシミュレーション地形を作成するための、完全に自動化されたデータセグメンテーションとオブジェクト情報抽出フレームワークを発表した。
航空機による測光データにおけるデータ品質の問題を特定する。
著者らは、伝統的な反復的最近点(ICP)と抽出された意味情報を利用するデータ登録ワークフローも提案した。
論文 参考訳(メタデータ) (2020-08-21T18:56:05Z) - Fully Automated Photogrammetric Data Segmentation and Object Information
Extraction Approach for Creating Simulation Terrain [0.0]
本研究は,全自動写真計測データセグメンテーションとオブジェクト情報抽出フレームワークを開発することを目的とする。
トレーニングやシミュレーションのためのリアルな仮想環境を作成する際のデータのユースケースを考えると、データのセグメンテーションとオブジェクト情報の抽出が不可欠である。
論文 参考訳(メタデータ) (2020-08-09T09:32:09Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。