論文の概要: Unsupervised Roofline Extraction from True Orthophotos for LoD2 Building
Model Reconstruction
- arxiv url: http://arxiv.org/abs/2310.01067v1
- Date: Mon, 2 Oct 2023 10:23:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:20:16.164058
- Title: Unsupervised Roofline Extraction from True Orthophotos for LoD2 Building
Model Reconstruction
- Title(参考訳): lod2建築モデル再構成のための正準写真からの教師なしルーフライン抽出
- Authors: Weixiao Gao, Ravi Peters, Jantien Stoter
- Abstract要約: 本稿では,LoD2 レベルでの建築モデル再構築のためのライン検出手法として,真正正光線から屋根線を抽出する方法を提案する。
本手法は, 既設の平面検出法や最先端の深層学習法よりも, 再建された建物の精度と完全性において優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper discusses the reconstruction of LoD2 building models from 2D and
3D data for large-scale urban environments. Traditional methods involve the use
of LiDAR point clouds, but due to high costs and long intervals associated with
acquiring such data for rapidly developing areas, researchers have started
exploring the use of point clouds generated from (oblique) aerial images.
However, using such point clouds for traditional plane detection-based methods
can result in significant errors and introduce noise into the reconstructed
building models. To address this, this paper presents a method for extracting
rooflines from true orthophotos using line detection for the reconstruction of
building models at the LoD2 level. The approach is able to extract relatively
complete rooflines without the need for pre-labeled training data or
pre-trained models. These lines can directly be used in the LoD2 building model
reconstruction process. The method is superior to existing plane
detection-based methods and state-of-the-art deep learning methods in terms of
the accuracy and completeness of the reconstructed building. Our source code is
available at https://github.com/tudelft3d/Roofline-extraction-from-orthophotos.
- Abstract(参考訳): 本稿では,大規模都市環境における2次元および3次元データからのLoD2ビルディングモデルの再構築について論じる。
従来の手法では、ライダーポイントの雲を使うが、高度に発達する地域のデータ取得に伴うコストと長い間隔のため、研究者たちは(オブライクな)空中画像から生成されたポイントの雲の使用を探求し始めた。
しかし,このような点群を従来の平面検出に基づく手法で使用すると,大きな誤差が生じ,復元された建物モデルにノイズが生じる可能性がある。
そこで本論文では,LoD2レベルでの建物モデル再構築のためのライン検出手法を用いて,真正光線から屋根線を抽出する手法を提案する。
このアプローチは、事前ラベル付きトレーニングデータや事前トレーニングされたモデルを必要としない、比較的完全な屋根線を抽出することができる。
これらの線は、直接lod2ビルモデル復元プロセスで使用できる。
本手法は, 既設の平面検出法や最先端の深層学習法よりも, 再建された建物の精度と完全性において優れている。
ソースコードはhttps://github.com/tudelft3d/Roofline- Extraction-from-orthophotosで公開されています。
関連論文リスト
- PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - Few-shot point cloud reconstruction and denoising via learned Guassian splats renderings and fine-tuned diffusion features [52.62053703535824]
本稿では,少数の画像から点雲を再構成し,そのレンダリングから点雲を識別する手法を提案する。
制約条件下での再構成を改善するため,ハイブリッド表面と外観の相違点のトレーニングを規則化する。
これらの学習したフィルタを使って、3Dの監督なしに来る点雲ノイズを除去する方法を実証する。
論文 参考訳(メタデータ) (2024-04-01T13:38:16Z) - Point2Building: Reconstructing Buildings from Airborne LiDAR Point Clouds [23.897507889025817]
航空機搭載LiDAR点雲から3次元多角形メッシュとして建物を再構築するための学習的アプローチを提案する。
このモデルでは, 点雲データから直接学習し, 誤差伝播を低減し, 再構成の忠実度を向上する。
我々は,チューリッヒ,ベルリン,タリンの航空機搭載LiDARデータの収集について実験的に検証した。
論文 参考訳(メタデータ) (2024-03-04T15:46:50Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - Take-A-Photo: 3D-to-2D Generative Pre-training of Point Cloud Models [97.58685709663287]
生成事前学習は、2次元視覚における基本モデルの性能を高めることができる。
3Dビジョンでは、トランスフォーマーベースのバックボーンの過度な信頼性と、点雲の秩序のない性質により、生成前のトレーニングのさらなる発展が制限されている。
本稿では,任意の点クラウドモデルに適用可能な3D-to-2D生成事前学習法を提案する。
論文 参考訳(メタデータ) (2023-07-27T16:07:03Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Combining visibility analysis and deep learning for refinement of
semantic 3D building models by conflict classification [3.2662392450935416]
本稿では,3次元モデルと窓とドアの特徴を統合化するための可視性解析とニューラルネットワークを組み合わせる手法を提案する。
この方法では、占有するボクセルは分類された点雲で融合され、ボクセルに意味を与える。
セマンティックボクセルとコンフリクトはベイズネットワークに組み合わされ、3Dモデルライブラリを用いて再構成されたファサード開口の分類と記述を行う。
論文 参考訳(メタデータ) (2023-03-10T16:01:30Z) - 3D Point Cloud Pre-training with Knowledge Distillation from 2D Images [128.40422211090078]
本稿では,2次元表現学習モデルから直接知識を取得するために,3次元ポイントクラウド事前学習モデルの知識蒸留手法を提案する。
具体的には、3Dポイントクラウドから概念特徴を抽出し、2D画像からの意味情報と比較するクロスアテンション機構を提案する。
このスキームでは,2次元教師モデルに含まれるリッチな情報から,クラウド事前学習モデルを直接学習する。
論文 参考訳(メタデータ) (2022-12-17T23:21:04Z) - Translational Symmetry-Aware Facade Parsing for 3D Building
Reconstruction [11.263458202880038]
本稿では,深部ニューラルネットワーク改善のための新しい翻訳対称性に基づくアプローチを提案する。
本研究では,単一段ネットワークにおけるアンカーフリー検出を融合させる新しい手法を提案する。
我々はBlenderのような市販のレンダリングエンジンを使用して、手続きモデルを用いて現実的な高品質な3Dモデルを再構築する。
論文 参考訳(メタデータ) (2021-06-02T03:10:51Z) - Curved Buildings Reconstruction from Airborne LiDAR Data by Matching and
Deforming Geometric Primitives [13.777047260469677]
幾何学的プリミティブの組立と変形による湾曲した建物再建のための新しい枠組みを提案する。
このフレームワークは、様々な都市で様々なLiDARによって収集されたいくつかの高い湾曲した建物で検証されている。
論文 参考訳(メタデータ) (2020-03-22T16:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。