論文の概要: Towards an unsupervised large-scale 2D and 3D building mapping with
LiDAR
- arxiv url: http://arxiv.org/abs/2205.14585v1
- Date: Sun, 29 May 2022 07:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:07:53.488370
- Title: Towards an unsupervised large-scale 2D and 3D building mapping with
LiDAR
- Title(参考訳): LiDARを用いた大規模2次元3次元建築地図の作成
- Authors: Hunsoo Song, Jinha Jung
- Abstract要約: 本研究では,空中LiDARデータを用いた最先端の2Dおよび3Dビルディング抽出アルゴリズムを提案する。
我々のアルゴリズムは完全に教師なしの方法で動作し、トレーニングラベルやトレーニング手順を必要としない。
提案アルゴリズムは,空中LiDARデータを用いたグローバルな2次元および3次元ビルディングマッピングへの大きな可能性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A 2D and 3D building map provides invaluable information for understanding
human activities and their impacts on Earth and its environment. Despite
enormous efforts to improve the quality of building maps, current large-scale
building maps have lots of errors and are limited to providing only 2D building
information. This study presents a state-of-the-art 2D and 3D building
extraction algorithm with airborne LiDAR data that is suitable for large-scale
building mapping. Our algorithm operates in a fully unsupervised manner and
does not require either any training label or training procedure. Our algorithm
requires only simple operations of morphological filtering and planarity-based
filtering but can produce an accurate 2D and 3D building map. A quantitative
and qualitative evaluation in a large-scale dataset (-550 sqkm) of Denver and
New York City showed that our algorithm outperforms the deep learning-based
Microsoft's building mapping algorithm even without any parameter tuning. More
extensive evaluations in different conditions of landscapes confirmed that our
algorithm is scalable and can be improved further with appropriate parameter
selection. Our algorithm is more advantageous than other image-based building
extraction algorithms in that it is more computationally efficient, more
accurate, and more explainable. Our proposed algorithm that can produce an
accurate large-scale 2D and 3D building map provides a great potential towards
a global-scale 2D and 3D building mapping with airborne LiDAR data.
- Abstract(参考訳): 2dおよび3dビルディングマップは、人間の活動とその地球とその環境への影響を理解するための貴重な情報を提供する。
建築地図の品質向上に多大な努力を払っているにもかかわらず、現在の大規模建築地図には多くの誤りがあり、2次元建築情報しか提供できない。
本研究では,大規模ビルディングマッピングに適した空中LiDARデータを用いた最先端の2Dおよび3Dビルディング抽出アルゴリズムを提案する。
本アルゴリズムは完全に教師なしの方法で動作し,トレーニングラベルやトレーニング手順を必要としない。
本アルゴリズムは, 形態的フィルタリングと平面性に基づくフィルタリングの単純な操作のみを必要とするが, 正確な2次元および3次元ビルディングマップを生成することができる。
デンバーとニューヨーク市の大規模データセット(550 sqkm)における定量的および定性的評価により,パラメータチューニングなしでも,ディープラーニングに基づくMicrosoftのビルディングマッピングアルゴリズムよりも優れた性能を示した。
ランドスケープの異なる条件におけるより広範な評価により、我々のアルゴリズムはスケーラブルであり、適切なパラメータ選択によりさらに改善できることを確認した。
我々のアルゴリズムは、より計算効率が良く、より正確で、より説明しやすい、他の画像ベースビルディング抽出アルゴリズムよりも有利である。
提案する2dおよび3dビルディングマップを高精度に作成するアルゴリズムは,空飛ぶlidarデータを用いたグローバルな2dおよび3dビルディングマッピングへの大きな可能性をもたらす。
関連論文リスト
- Semi-supervised 3D Semantic Scene Completion with 2D Vision Foundation Model Guidance [11.090775523892074]
我々は、高密度な注釈付きデータへの依存を軽減するために、新しい半教師付きフレームワークを導入する。
提案手法は2次元基礎モデルを用いて3次元シーンの幾何学的・意味的手がかりを生成する。
本手法は,10%のラベル付きデータを用いて全教師付き性能の最大85%を達成する。
論文 参考訳(メタデータ) (2024-08-21T12:13:18Z) - Multi-Unit Floor Plan Recognition and Reconstruction Using Improved Semantic Segmentation of Raster-Wise Floor Plans [1.0436971860292366]
MDA-Unet と MACU-Net アーキテクチャに基づく2つの新しい画素分割手法を提案する。
提案手法は他の2つの最先端技術とベンチマークデータセットと比較した。
一般的なCubeCasaベンチマークデータセットでは,5つのクラスに対して平均F1スコアが0.86に達している。
論文 参考訳(メタデータ) (2024-08-02T18:36:45Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - Automatic Reconstruction of Semantic 3D Models from 2D Floor Plans [1.8581514902689347]
走査された2次元計画からベクトル化された3次元モデルの再構成を行うパイプラインを提案する。
この手法は、公開データセットCubeCasa5kで最先端の結果を示す。
論文 参考訳(メタデータ) (2023-06-02T16:06:42Z) - Efficient Quality Diversity Optimization of 3D Buildings through 2D
Pre-optimization [101.18253437732933]
品質多様性アルゴリズムは、エンジニアの直感を伝える様々なソリューションセットを作成するために使用することができる。
しかし、品質の多様性は、非常に高価な問題では効率的ではない。
品質の多様性のあるトレーニングデータを生成することで、より優れた機械学習モデルを作成できることを示します。
論文 参考訳(メタデータ) (2023-03-28T11:20:59Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - Walk2Map: Extracting Floor Plans from Indoor Walk Trajectories [23.314557741879664]
室内を歩く人の軌跡からフロアプランを生成するデータ駆動型アプローチであるWalk2Mapを紹介します。
データ駆動慣性オドメトリーの進歩により、そのような最小限の入力データは、コンシューマレベルのスマートフォンのIMU読み取りから得ることができる。
スキャンした3d屋内モデルを用いてネットワークをトレーニングし、屋内歩行軌跡にカスケードな方法で適用する。
論文 参考訳(メタデータ) (2021-02-27T16:29:09Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。