論文の概要: 3D detection of roof sections from a single satellite image and
application to LOD2-building reconstruction
- arxiv url: http://arxiv.org/abs/2307.05409v1
- Date: Tue, 11 Jul 2023 16:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 14:06:18.463418
- Title: 3D detection of roof sections from a single satellite image and
application to LOD2-building reconstruction
- Title(参考訳): 単一衛星画像からの屋根断面の3次元検出とLOD2再建への応用
- Authors: Johann Lussange, Mulin Yu, Yuliya Tarabalka, Florent Lafarge
- Abstract要約: KIBS(textitKeypoints Inference By)という,2つの特徴からなる都市3次元再構成手法を提案する。
KIBS法は, 異なる都市部を数分で再構築し, 個々の屋根部を8.55%, 75.21%で2次元分割するジャカルド指数を2つのデータ集合で8.55%, および75.21%で表し, その高さ平均誤差を2つのデータ集合で1.60$mと2.06mの3次元再構成で表した。
- 参考スコア(独自算出の注目度): 12.693545159861857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing urban areas in 3D out of satellite raster images has been a
long-standing and challenging goal of both academical and industrial research.
The rare methods today achieving this objective at a Level Of Details $2$ rely
on procedural approaches based on geometry, and need stereo images and/or LIDAR
data as input. We here propose a method for urban 3D reconstruction named
KIBS(\textit{Keypoints Inference By Segmentation}), which comprises two novel
features: i) a full deep learning approach for the 3D detection of the roof
sections, and ii) only one single (non-orthogonal) satellite raster image as
model input. This is achieved in two steps: i) by a Mask R-CNN model performing
a 2D segmentation of the buildings' roof sections, and after blending these
latter segmented pixels within the RGB satellite raster image, ii) by another
identical Mask R-CNN model inferring the heights-to-ground of the roof
sections' corners via panoptic segmentation, unto full 3D reconstruction of the
buildings and city. We demonstrate the potential of the KIBS method by
reconstructing different urban areas in a few minutes, with a Jaccard index for
the 2D segmentation of individual roof sections of $88.55\%$ and $75.21\%$ on
our two data sets resp., and a height's mean error of such correctly segmented
pixels for the 3D reconstruction of $1.60$ m and $2.06$ m on our two data sets
resp., hence within the LOD2 precision range.
- Abstract(参考訳): 衛星ラスター画像から3Dで都市部を再構築することは、学術研究と産業研究の両方の長年の目標である。
現在この目的を達成するためのレアな方法は、幾何学に基づく手続き的アプローチに依存しており、入力にはステレオ画像やLIDARデータが必要である。
本稿では,2つの新しい特徴からなるkibs(\textit{keypoints inference by segmentation})と呼ばれる都市3次元再構成手法を提案する。
一 屋根部分の3次元検出のための完全な深層学習方法、及び
二 モデル入力として単一の(直交しない)衛星ラスター画像のみ。
これは2つのステップで達成される。
一 建物の屋根部分の2次元セグメンテーションを行うマスクr−cnnモデルにより、rgb衛星ラスター画像にこれらの後者のセグメンテーション画素を混合した後。
二 屋根の角の高さをパン光学的セグメンテーションにより推定する別の同一のマスクR-CNNモデルにより、建物及び都市の完全な3次元再構築を行う。
そこで本研究では,2つのデータセットrespに対して85.55\%$と75.21\%$の個別屋根断面の2dセグメンテーションのためのjaccardインデックスを用いて,各市街地を数分で再構成することで,kibs法の可能性を示す。
2つのデータセットで1.60$mと2.06$mの3D再構成のための、そのような正確なセグメント化ピクセルの平均誤差。
その結果,LOD2精度範囲内であった。
関連論文リスト
- SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - sat2pc: Estimating Point Cloud of Building Roofs from 2D Satellite
Images [1.8884278918443564]
2次元衛星画像から建物屋根の点を予測するディープラーニングアーキテクチャである sat2pc を提案する。
以上の結果から,SAT2pcは既存のベースラインを少なくとも18.6%上回る性能を示した。
論文 参考訳(メタデータ) (2022-05-25T03:24:40Z) - ImpliCity: City Modeling from Satellite Images with Deep Implicit
Occupancy Fields [20.00737387884824]
ImpliCityは、3Dシーンを暗黙的かつ連続的な占有領域として表現し、ポイント・クラウドとステレオ・フォトの組込みによって駆動される。
画像解像度0.5$,$mのImpliCityは、$approx,$0.7$,$mの平均的な高さ誤差に達し、競合するメソッドを上回っている。
論文 参考訳(メタデータ) (2022-01-24T21:40:16Z) - 3D Instance Segmentation of MVS Buildings [5.2517244720510305]
本稿では,多視点ステレオ(MVS)都市シーンから3次元建物をセグメント化するための新しい枠組みを提案する。
この研究の重点は、大型で不正確な3D表面モデルに取り付けられたとしても、3Dビルディングインスタンスを検出し、セグメンテーションすることにある。
論文 参考訳(メタデータ) (2021-12-18T11:12:38Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Machine-learned 3D Building Vectorization from Satellite Imagery [7.887221474814986]
自動3Dビルディングの再構築とベクトル化のための機械学習に基づく手法を提案する。
単チャネルフォトグラム化デジタルサーフェスモデル(DSM)とパンクロマティック画像(PAN)を入力として、まず非構築オブジェクトをフィルタリングし、形状の構築を洗練する。
改良されたDSMと入力されたPAN画像はセマンティックセグメンテーションネットワークを介して、建物の屋根の端と角を検出する。
論文 参考訳(メタデータ) (2021-04-13T19:57:30Z) - Learning Joint 2D-3D Representations for Depth Completion [90.62843376586216]
2Dおよび3Dの関節の特徴を抽出することを学ぶシンプルで効果的なニューラルネットワークブロックを設計します。
具体的には、画像画素に2D畳み込みと3D点に連続畳み込みを施した2つのドメイン固有のサブネットワークから構成される。
論文 参考訳(メタデータ) (2020-12-22T22:58:29Z) - 2D-3D Geometric Fusion Network using Multi-Neighbourhood Graph
Convolution for RGB-D Indoor Scene Classification [0.8629912408966145]
本稿では,3次元幾何特徴と2次元テクスチャ特徴を組み合わせた2次元3次元フュージョンステージを提案する。
実験の結果、NYU-Depth-V2とSUN RGB-Dデータセットを用いて、RGB-D屋内シーン分類作業において、提案手法が現在の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-23T13:58:12Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。