論文の概要: Enhancing Polygonal Building Segmentation via Oriented Corners
- arxiv url: http://arxiv.org/abs/2407.12256v1
- Date: Wed, 17 Jul 2024 01:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:49:00.104116
- Title: Enhancing Polygonal Building Segmentation via Oriented Corners
- Title(参考訳): 配向コーナーによる多角形建築物セグメンテーションの強化
- Authors: Mohammad Moein Sheikholeslami, Muhammad Kamran, Andreas Wichmann, Gunho Sohn,
- Abstract要約: 本稿では,入力画像から直接ポリゴンを抽出する,OriCornerNetという新しいディープ畳み込みニューラルネットワークを提案する。
我々のアプローチは、隣接する角への方向を示すフットプリントマスク、コーナー、配向ベクトルを予測できる深いモデルを含む。
SpaceNet VegasとCrowdAIの小さなデータセットで行った性能評価は、我々のアプローチの競争力を示すものである。
- 参考スコア(独自算出の注目度): 0.3749861135832072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing demand for high-resolution maps across various applications has underscored the necessity of accurately segmenting building vectors from overhead imagery. However, current deep neural networks often produce raster data outputs, leading to the need for extensive post-processing that compromises the fidelity, regularity, and simplicity of building representations. In response, this paper introduces a novel deep convolutional neural network named OriCornerNet, which directly extracts delineated building polygons from input images. Specifically, our approach involves a deep model that predicts building footprint masks, corners, and orientation vectors that indicate directions toward adjacent corners. These predictions are then used to reconstruct an initial polygon, followed by iterative refinement using a graph convolutional network that leverages semantic and geometric features. Our method inherently generates simplified polygons by initializing the refinement process with predicted corners. Also, including geometric information from oriented corners contributes to producing more regular and accurate results. Performance evaluations conducted on SpaceNet Vegas and CrowdAI-small datasets demonstrate the competitive efficacy of our approach compared to the state-of-the-art in building segmentation from overhead imagery.
- Abstract(参考訳): 様々なアプリケーションにまたがる高解像度マップの需要が高まっているため、オーバヘッド画像からビルドベクターを正確に分割する必要がある。
しかし、現在のディープニューラルネットワークは、しばしばラスタデータ出力を生成するため、表現の忠実さ、規則性、単純さを損なう広範な後処理が必要である。
そこで本研究では,入力画像からポリゴンを直接抽出する,OriCornerNetという新しいディープ畳み込みニューラルネットワークを提案する。
具体的には、隣接する角への方向を示すフットプリントマスク、コーナー、方向ベクトルを推定するディープモデルを含む。
これらの予測は初期ポリゴンの再構成に使用され、続いて意味的特徴と幾何学的特徴を利用するグラフ畳み込みネットワークを用いて反復的に洗練される。
本手法は, 予測角の精製過程を初期化することにより, 単純化されたポリゴンを本質的に生成する。
また、配向角からの幾何学的情報を含むことにより、より規則的で正確な結果が得られる。
SpaceNet Vegas と CrowdAI の小さなデータセットで行った性能評価は,頭上画像からの建物セグメンテーションにおける最先端技術と比較して,我々のアプローチの競争力を示す。
関連論文リスト
- P2PFormer: A Primitive-to-polygon Method for Regular Building Contour Extraction from Remote Sensing Images [5.589842901102337]
既存の方法は不規則な輪郭、丸い角、冗長点に悩まされている。
本稿では,ポストプロセッシングを使わずに通常の建物輪郭を生成する,新しい合理化パイプラインを提案する。
P2PFormerは、WHU、CrowdAI、WHU-Mixデータセット上で、最先端のパフォーマンスを新たに実現している。
論文 参考訳(メタデータ) (2024-06-05T04:38:45Z) - SuperpixelGraph: Semi-automatic generation of building footprint through
semantic-sensitive superpixel and neural graph networks [21.523846989009886]
ほとんどの都市アプリケーションは、鋭い境界を持つ簡潔なベクトルグラフィックスの形で、フットプリントを構築する必要がある。
本稿では,意味に敏感なスーパーピクセルとニューラルグラフネットワークによるフットプリント抽出のための半自動手法を提案する。
論文 参考訳(メタデータ) (2023-04-12T07:39:20Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - PolyWorld: Polygonal Building Extraction with Graph Neural Networks in
Satellite Images [10.661430927191205]
本稿では、画像から直接建物頂点を抽出し、それらを正しく接続して正確なポリゴンを生成するニューラルネットワークであるPolyWorldを紹介する。
PolyWorldは、ポリゴン化の構築における最先端を著しく上回る。
論文 参考訳(メタデータ) (2021-11-30T15:23:17Z) - Voxel-based Network for Shape Completion by Leveraging Edge Generation [76.23436070605348]
エッジ生成(VE-PCN)を利用した点雲補完のためのボクセルネットワークを開発した。
まず点雲を正規のボクセル格子に埋め込み、幻覚した形状のエッジの助けを借りて完全な物体を生成する。
この分離されたアーキテクチャとマルチスケールのグリッド機能学習は、より現実的な表面上の詳細を生成することができる。
論文 参考訳(メタデータ) (2021-08-23T05:10:29Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Machine-learned Regularization and Polygonization of Building
Segmentation Masks [19.467876013953894]
本稿では,建物セグメンテーションマスクの自動正規化と多角化のための機械学習に基づくアプローチを提案する。
画像を入力として、汎用的完全畳み込みネットワーク(FCN)を利用した分割マップの構築を最初に予測する。
生成的敵ネットワーク(GAN)は、それらをより現実的にするために、建築境界の正規化を行う。
論文 参考訳(メタデータ) (2020-07-24T15:38:35Z) - Quantization in Relative Gradient Angle Domain For Building Polygon
Estimation [88.80146152060888]
CNNアプローチは、しばしばノイズの多いエッジや丸いコーナーを含む不正確な建築形態を生成する。
CNNセグメンテーション出力から角状かつ簡潔なビルディングポリゴンを生成するために,ビルディングコーナーの事前知識を利用するモジュールを提案する。
提案手法は, 円形近似によるCNN出力を, より鮮明な形状の建物足跡に改良することを示した。
論文 参考訳(メタデータ) (2020-07-10T21:33:06Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。