論文の概要: An unsupervised, open-source workflow for 2D and 3D building mapping
from airborne LiDAR data
- arxiv url: http://arxiv.org/abs/2205.14585v3
- Date: Wed, 16 Aug 2023 03:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 18:14:18.766391
- Title: An unsupervised, open-source workflow for 2D and 3D building mapping
from airborne LiDAR data
- Title(参考訳): 空中LiDARデータを用いた2次元および3次元ビルディングマッピングのための教師なしオープンソースワークフロー
- Authors: Hunsoo Song, Jinha Jung
- Abstract要約: 本研究では,空中LiDARデータを利用した大規模2次元および3次元ビルディングマッピングのためのオープンソースワークフローを提案する。
私たちのワークフローは完全に教師なしであり、いかなるトレーニング手順も不要です。
提案手法のロバスト性は,広範囲なデータセット(>550 km$2$)を用いて厳密に検証され,深層学習および手指による製品との比較によりさらに検証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the substantial demand for high-quality, large-area building maps, no
established open-source workflow for generating 2D and 3D maps currently
exists. This study introduces an automated, open-source workflow for
large-scale 2D and 3D building mapping utilizing airborne LiDAR data. Uniquely,
our workflow operates entirely unsupervised, eliminating the need for any
training procedures. We have integrated a specifically tailored DTM generation
algorithm into our workflow to prevent errors in complex urban landscapes,
especially around highways and overpasses. Through fine rasterization of LiDAR
point clouds, we've enhanced building-tree differentiation, reduced errors near
water bodies, and augmented computational efficiency by introducing a new
planarity calculation. Our workflow offers a practical and scalable solution
for the mass production of rasterized 2D and 3D building maps from raw airborne
LiDAR data. Also, we elaborate on the influence of parameters and potential
error sources to provide users with practical guidance. Our method's robustness
has been rigorously optimized and tested using an extensive dataset (> 550
km$^2$), and further validated through comparison with deep learning-based and
hand-digitized products. Notably, through these unparalleled, large-scale
comparisons, we offer a valuable analysis of large-scale building maps
generated via different methodologies, providing insightful evaluations of the
effectiveness of each approach. We anticipate that our highly scalable building
mapping workflow will facilitate the production of reliable 2D and 3D building
maps, fostering advances in large-scale urban analysis. The code will be
released upon publication.
- Abstract(参考訳): 高品質で大規模なビルディングマップの需要は大きいが、2Dと3Dマップを生成するためのオープンソースのワークフローは存在しない。
本研究では,空中LiDARデータを利用した大規模2次元3次元ビルディングマッピングのためのオープンソースワークフローを提案する。
ユニークなことに、私たちのワークフローは完全に教師なしで動作し、トレーニング手順は不要です。
DTM生成アルゴリズムをワークフローに統合し、特に高速道路や高架道路などの複雑な都市景観におけるエラーを防止する。
LiDAR点雲の微視的ラスタ化により,建築木分化,水域付近の誤差の低減,新しい平面計算の導入による計算効率の向上を実現した。
我々のワークフローは、生のLiDARデータからラスタライズされた2Dおよび3Dビルディングマップを大量生産するための実用的でスケーラブルなソリューションを提供する。
また,パラメータや潜在的なエラー源の影響について詳しく検討し,ユーザに対して実用的なガイダンスを提供する。
提案手法のロバスト性は,広範囲なデータセット(>550 km$^2$)を用いて厳密に最適化され,さらに深層学習および手指による製品との比較により検証されている。
特に、これらの非並列で大規模な比較を通じて、異なる手法を用いて生成された大規模建築地図の貴重な分析を行い、それぞれの手法の有効性を洞察的に評価する。
我々の高度にスケーラブルなビルディングマッピングワークフローは、信頼性の高い2Dおよび3Dビルディングマップの作成を容易にし、大規模都市分析の進歩を促進することを期待する。
コードは公開時にリリースされる。
関連論文リスト
- Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - Automatic Reconstruction of Semantic 3D Models from 2D Floor Plans [1.8581514902689347]
走査された2次元計画からベクトル化された3次元モデルの再構成を行うパイプラインを提案する。
この手法は、公開データセットCubeCasa5kで最先端の結果を示す。
論文 参考訳(メタデータ) (2023-06-02T16:06:42Z) - Efficient Quality Diversity Optimization of 3D Buildings through 2D
Pre-optimization [101.18253437732933]
品質多様性アルゴリズムは、エンジニアの直感を伝える様々なソリューションセットを作成するために使用することができる。
しかし、品質の多様性は、非常に高価な問題では効率的ではない。
品質の多様性のあるトレーニングデータを生成することで、より優れた機械学習モデルを作成できることを示します。
論文 参考訳(メタデータ) (2023-03-28T11:20:59Z) - Joint Prediction of Monocular Depth and Structure using Planar and
Parallax Geometry [4.620624344434533]
教師付き学習深度推定法は、LiDARデータのような高品質な地上構造で訓練すると、優れた性能が得られる。
提案手法は,有望な平面とパララックス幾何学パイプラインの構造情報と深度情報を組み合わせたU-Net教師あり学習ネットワークの構築である。
我々のモデルは細い物体と縁の深さ予測に優れており、構造予測ベースラインと比較して、より頑健に機能する。
論文 参考訳(メタデータ) (2022-07-13T17:04:05Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Walk2Map: Extracting Floor Plans from Indoor Walk Trajectories [23.314557741879664]
室内を歩く人の軌跡からフロアプランを生成するデータ駆動型アプローチであるWalk2Mapを紹介します。
データ駆動慣性オドメトリーの進歩により、そのような最小限の入力データは、コンシューマレベルのスマートフォンのIMU読み取りから得ることができる。
スキャンした3d屋内モデルを用いてネットワークをトレーニングし、屋内歩行軌跡にカスケードな方法で適用する。
論文 参考訳(メタデータ) (2021-02-27T16:29:09Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。