論文の概要: SuperpixelGraph: Semi-automatic generation of building footprint through
semantic-sensitive superpixel and neural graph networks
- arxiv url: http://arxiv.org/abs/2304.05661v2
- Date: Tue, 20 Jun 2023 08:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 02:50:37.239519
- Title: SuperpixelGraph: Semi-automatic generation of building footprint through
semantic-sensitive superpixel and neural graph networks
- Title(参考訳): superpixelgraph:意味に敏感なスーパーピクセルとニューラルネットワークによるビルディングフットプリントの半自動生成
- Authors: Haojia Yu, Han Hu, Bo Xu, Qisen Shang, Zhendong Wang and Qing Zhu
- Abstract要約: ほとんどの都市アプリケーションは、鋭い境界を持つ簡潔なベクトルグラフィックスの形で、フットプリントを構築する必要がある。
本稿では,意味に敏感なスーパーピクセルとニューラルグラフネットワークによるフットプリント抽出のための半自動手法を提案する。
- 参考スコア(独自算出の注目度): 21.523846989009886
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most urban applications necessitate building footprints in the form of
concise vector graphics with sharp boundaries rather than pixel-wise raster
images. This need contrasts with the majority of existing methods, which
typically generate over-smoothed footprint polygons. Editing these
automatically produced polygons can be inefficient, if not more time-consuming
than manual digitization. This paper introduces a semi-automatic approach for
building footprint extraction through semantically-sensitive superpixels and
neural graph networks. Drawing inspiration from object-based classification
techniques, we first learn to generate superpixels that are not only
boundary-preserving but also semantically-sensitive. The superpixels respond
exclusively to building boundaries rather than other natural objects, while
simultaneously producing semantic segmentation of the buildings. These
intermediate superpixel representations can be naturally considered as nodes
within a graph. Consequently, graph neural networks are employed to model the
global interactions among all superpixels and enhance the representativeness of
node features for building segmentation. Classical approaches are utilized to
extract and regularize boundaries for the vectorized building footprints.
Utilizing minimal clicks and straightforward strokes, we efficiently accomplish
accurate segmentation outcomes, eliminating the necessity for editing polygon
vertices. Our proposed approach demonstrates superior precision and efficacy,
as validated by experimental assessments on various public benchmark datasets.
A significant improvement of 8% in AP50 was observed in vector graphics
evaluation, surpassing established techniques. Additionally, we have devised an
optimized and sophisticated pipeline for interactive editing, poised to further
augment the overall quality of the results.
- Abstract(参考訳): ほとんどの都市アプリケーションは、ピクセルワイドのラスタ画像ではなく、シャープな境界を持つ簡潔なベクトルグラフィックスの形で、フットプリントを構築する必要がある。
これは、通常、過度に平滑なフットプリントポリゴンを生成する既存の手法のほとんどとは対照的である。
これらの自動生成ポリゴンの編集は、手動のデジタル化よりも時間を要するが、非効率である。
本稿では,セマンティクスに敏感なスーパーピクセルとニューラルネットワークを用いて足跡抽出を行う半自動的手法を提案する。
オブジェクトベースの分類技術からインスピレーションを得て、我々はまず境界保存だけでなく意味に敏感なスーパーピクセルを生成することを学ぶ。
スーパーピクセルは、他の自然なオブジェクトではなく、建物の境界にのみ反応し、同時に建物のセマンティックセグメンテーションを生成する。
これらの中間超ピクセル表現は自然にグラフ内のノードと見なすことができる。
その結果、グラフニューラルネットワークは、すべてのスーパーピクセル間のグローバルな相互作用をモデル化し、セグメンテーションを構築するノードの特徴の表現性を向上する。
古典的なアプローチは、ベクトル化された建物の足跡の境界を抽出し、規則化するのに使われる。
最小クリックとストロークを用いることで,精度の高いセグメンテーション結果を実現し,ポリゴン頂点の編集の必要性を解消する。
提案手法は,様々な公開ベンチマークデータセットに対する実験的な評価により,優れた精度と有効性を示す。
ベクターグラフィックス評価において,AP50の8%の大幅な改善が認められた。
さらに,インタラクティブな編集を行うための最適化された洗練されたパイプラインを考案し,結果の質をさらに向上させた。
関連論文リスト
- Enhancing Polygonal Building Segmentation via Oriented Corners [0.3749861135832072]
本稿では,入力画像から直接ポリゴンを抽出する,OriCornerNetという新しいディープ畳み込みニューラルネットワークを提案する。
我々のアプローチは、隣接する角への方向を示すフットプリントマスク、コーナー、配向ベクトルを予測できる深いモデルを含む。
SpaceNet VegasとCrowdAIの小さなデータセットで行った性能評価は、我々のアプローチの競争力を示すものである。
論文 参考訳(メタデータ) (2024-07-17T01:59:06Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - PolyWorld: Polygonal Building Extraction with Graph Neural Networks in
Satellite Images [10.661430927191205]
本稿では、画像から直接建物頂点を抽出し、それらを正しく接続して正確なポリゴンを生成するニューラルネットワークであるPolyWorldを紹介する。
PolyWorldは、ポリゴン化の構築における最先端を著しく上回る。
論文 参考訳(メタデータ) (2021-11-30T15:23:17Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - Implicit Integration of Superpixel Segmentation into Fully Convolutional
Networks [11.696069523681178]
スーパーピクセル方式をCNNに暗黙的に統合する方法を提案する。
提案手法では,下地層に画素を階層的にグループ化し,スーパーピクセルを生成する。
本手法は,セマンティックセグメンテーション,スーパーピクセルセグメンテーション,モノクル深度推定などのタスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:20:26Z) - AINet: Association Implantation for Superpixel Segmentation [82.21559299694555]
今回提案する新しいtextbfAssociation textbfImplantation(AI)モジュールは、ネットワークがピクセルとその周辺グリッド間の関係を明示的にキャプチャすることを可能にする。
本手法は最先端性能を実現するだけでなく,十分な推論効率を維持することができた。
論文 参考訳(メタデータ) (2021-01-26T10:40:13Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Visual Object Tracking by Segmentation with Graph Convolutional Network [7.729569666460712]
グラフ畳み込みネットワーク(GCN)モデルを用いて,スーパーピクセルベースのオブジェクトトラッキングを提案する。
提案モデルは,i)ラベル線形予測とi)各スーパーピクセルの構造認識特徴情報を統合した,汎用的なエンドツーエンドフレームワークを提供する。
論文 参考訳(メタデータ) (2020-09-05T12:43:21Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z) - Superpixel Segmentation with Fully Convolutional Networks [32.878045921919714]
本稿では,通常の画像グリッド上でのスーパーピクセルの予測に完全畳み込みネットワークを用いる新しい手法を提案する。
ベンチマーク・データセットによる実験結果から,提案手法は最先端のスーパーピクセル・セグメンテーション性能を実現することが示された。
ステレオマッチングのための人気のあるネットワークアーキテクチャを改良し、スーパーピクセルと格差を同時に予測する。
論文 参考訳(メタデータ) (2020-03-29T02:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。