論文の概要: Deep Learning Guided Building Reconstruction from Satellite
Imagery-derived Point Clouds
- arxiv url: http://arxiv.org/abs/2005.09223v1
- Date: Tue, 19 May 2020 05:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:50:38.335759
- Title: Deep Learning Guided Building Reconstruction from Satellite
Imagery-derived Point Clouds
- Title(参考訳): 衛星画像由来点雲による建物再建の深層学習
- Authors: Bo Xu, Xu Zhang, Zhixin Li, Matt Leotta, Shih-Fu Chang, Jie Shan
- Abstract要約: 衛星画像から生成された点雲からモデル再構成を構築するための信頼性が高く効果的な手法を提案する。
具体的には、複雑で騒々しい場面で建築屋根の形状を区別するために、ディープラーニングのアプローチが採用されている。
大規模都市モデル生成の一般ニーズに対処する最初の取り組みとして、開発はオープンソースソフトウェアとして展開されている。
- 参考スコア(独自算出の注目度): 39.36437891978871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D urban reconstruction of buildings from remotely sensed imagery has drawn
significant attention during the past two decades. While aerial imagery and
LiDAR provide higher resolution, satellite imagery is cheaper and more
efficient to acquire for large scale need. However, the high, orbital altitude
of satellite observation brings intrinsic challenges, like unpredictable
atmospheric effect, multi view angles, significant radiometric differences due
to the necessary multiple views, diverse land covers and urban structures in a
scene, small base-height ratio or narrow field of view, all of which may
degrade 3D reconstruction quality. To address these major challenges, we
present a reliable and effective approach for building model reconstruction
from the point clouds generated from multi-view satellite images. We utilize
multiple types of primitive shapes to fit the input point cloud. Specifically,
a deep-learning approach is adopted to distinguish the shape of building roofs
in complex and yet noisy scenes. For points that belong to the same roof shape,
a multi-cue, hierarchical RANSAC approach is proposed for efficient and
reliable segmenting and reconstructing the building point cloud. Experimental
results over four selected urban areas (0.34 to 2.04 sq km in size) demonstrate
the proposed method can generate detailed roof structures under noisy data
environments. The average successful rate for building shape recognition is
83.0%, while the overall completeness and correctness are over 70% with
reference to ground truth created from airborne lidar. As the first effort to
address the public need of large scale city model generation, the development
is deployed as open source software.
- Abstract(参考訳): リモートセンシング画像による建築物の3次元都市復元は、過去20年間で大きな注目を集めている。
航空画像とlidarはより高い解像度を提供するが、衛星画像は大規模な需要のためにより安価で効率的である。
しかし、衛星観測の高軌道高度は、予測不可能な大気効果、多視点角、必要な複数のビューによる重要な放射測度差、様々な土地被覆と都市構造、小さなベースハイト比または狭い視野といった固有の課題をもたらし、これらは全て3D再構成の品質を低下させる可能性がある。
これらの課題に対処するため,多視点衛星画像から生成した点雲からモデル再構成を行うための信頼性が高く効果的な手法を提案する。
入力点クラウドに適合する複数のプリミティブ形状を利用する。
具体的には,建築屋根の形状を複雑かつ騒音の多い場面で区別するために,深層学習手法が採用されている。
同じ屋根形状に属する点に対しては,ビルディングポイントクラウドの効率的かつ信頼性の高いセグメンテーションと再構築のために,マルチキュー階層RANSACアプローチを提案する。
4つの都市(0.34~2.04平方キロメートル)における実験結果から,提案手法は騒音データ環境下で詳細な屋根構造を生成できることを示した。
建物形状認識の平均成功率は83.0%であり、全体の完全性と正確性は、空中ライダーによる地上の真理から70%以上である。
大規模都市モデル生成の公的なニーズに対処する最初の取り組みとして、開発はオープンソースソフトウェアとして展開される。
関連論文リスト
- APC2Mesh: Bridging the gap from occluded building façades to full 3D models [5.113739955215433]
本稿では,ポイントコンプリートを3次元再構成パイプラインに統合するAPC2Meshを提案する。
具体的には、3次元メッシュ再構成のための線形化スキップアテンションに基づく変形ネットワークへの入力として、隠蔽された点から生成された完全点を利用する。
論文 参考訳(メタデータ) (2024-04-03T01:29:30Z) - Aerial Lifting: Neural Urban Semantic and Building Instance Lifting from Aerial Imagery [51.73680703579997]
航空画像から都市規模のセマンティックスとビルレベルのインスタンスセグメンテーションのためのニューラルラジアンスフィールド法を提案する。
都市空撮画像の物体は、建物、車、道路など、相当な大きさのバリエーションを示している。
我々は,様々な大きさのオブジェクトのセグメンテーションを強化する,スケール適応型セマンティックラベル融合戦略を導入する。
次に、2次元のインスタンスラベルにおける多視点不整合問題を緩和するために、新しいクロスビューインスタンスラベルグループ化戦略を導入する。
論文 参考訳(メタデータ) (2024-03-18T14:15:39Z) - Point2Building: Reconstructing Buildings from Airborne LiDAR Point Clouds [23.897507889025817]
航空機搭載LiDAR点雲から3次元多角形メッシュとして建物を再構築するための学習的アプローチを提案する。
このモデルでは, 点雲データから直接学習し, 誤差伝播を低減し, 再構成の忠実度を向上する。
我々は,チューリッヒ,ベルリン,タリンの航空機搭載LiDARデータの収集について実験的に検証した。
論文 参考訳(メタデータ) (2024-03-04T15:46:50Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Patch-Wise Point Cloud Generation: A Divide-and-Conquer Approach [83.05340155068721]
分割・分散アプローチを用いた新しい3dポイントクラウド生成フレームワークを考案する。
すべてのパッチジェネレータは学習可能な事前情報に基づいており、幾何学的プリミティブの情報を取得することを目的としている。
最も人気のあるポイントクラウドデータセットであるShapeNetのさまざまなオブジェクトカテゴリに関する実験結果は、提案したパッチワイドポイントクラウド生成の有効性を示している。
論文 参考訳(メタデータ) (2023-07-22T11:10:39Z) - UrbanBIS: a Large-scale Benchmark for Fine-grained Urban Building
Instance Segmentation [50.52615875873055]
都市BISは6つの実際の都市のシーンで構成され、25億点があり、面積は10.78平方キロメートルである。
UrbanBISは、建物、車両、植生、道路、橋など、豊富な都市オブジェクトに意味レベルのアノテーションを提供する。
UrbanBISは、きめ細かいサブカテゴリを導入した最初の3Dデータセットである。
論文 参考訳(メタデータ) (2023-05-04T08:01:38Z) - Building Coverage Estimation with Low-resolution Remote Sensing Imagery [65.95520230761544]
本稿では,低解像度衛星画像のみを用いた建物被覆量の推定手法を提案する。
本モデルでは, 世界中の開発レベルの異なる地域において, 建築範囲の予測において最大0.968の判定係数を達成している。
論文 参考訳(メタデータ) (2023-01-04T05:19:33Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - City3D: Large-scale Urban Reconstruction from Airborne Point Clouds [3.7422375336465037]
本研究では,小型3次元ビルディングモデルを大規模空調点雲から再構築するための完全自動手法を提案する。
都会の建物は通常、垂直壁と地上を繋ぐ平面屋根で構成されており、データから直接垂直壁を推測する手法を提案する。
様々な大規模空力点雲の実験により, 再現精度とロバスト性の観点から, この手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-01-25T12:41:11Z) - Boundary Regularized Building Footprint Extraction From Satellite Images
Using Deep Neural Network [6.371173732947292]
本稿では,1つの衛星画像から構築事例を共同で検出し,ノイズの多い建物の境界形状を規則化する,新しいディープニューラルネットワークを提案する。
本モデルでは,オブジェクトの局所化,認識,セマンティックラベリング,幾何学的形状抽出を同時に行うことができる。
論文 参考訳(メタデータ) (2020-06-23T17:24:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。