論文の概要: BiSVP: Building Footprint Extraction via Bidirectional Serialized Vertex
Prediction
- arxiv url: http://arxiv.org/abs/2303.00300v1
- Date: Wed, 1 Mar 2023 07:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:44:50.444349
- Title: BiSVP: Building Footprint Extraction via Bidirectional Serialized Vertex
Prediction
- Title(参考訳): bisvp:双方向直列頂点予測による建物足跡の抽出
- Authors: Mingming Zhang, Ye Du, Zhenghui Hu, Qingjie Liu, Yunhong Wang
- Abstract要約: BiSVPは、改良のないエンドツーエンドの建築フットプリント抽出手法である。
本稿では,高解像度でリッチなセマンティックな特徴学習を実現するために,CSFFモジュールを提案する。
当社のBiSVPは,3つのビルディングインスタンスセグメンテーションベンチマークにおいて,最先端の手法よりもかなり優れている。
- 参考スコア(独自算出の注目度): 43.61580149432732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting building footprints from remote sensing images has been attracting
extensive attention recently. Dominant approaches address this challenging
problem by generating vectorized building masks with cumbersome refinement
stages, which limits the application of such methods. In this paper, we
introduce a new refinement-free and end-to-end building footprint extraction
method, which is conceptually intuitive, simple, and effective. Our method,
termed as BiSVP, represents a building instance with ordered vertices and
formulates the building footprint extraction as predicting the serialized
vertices directly in a bidirectional fashion. Moreover, we propose a
cross-scale feature fusion (CSFF) module to facilitate high resolution and rich
semantic feature learning, which is essential for the dense building vertex
prediction task. Without bells and whistles, our BiSVP outperforms
state-of-the-art methods by considerable margins on three building instance
segmentation benchmarks, clearly demonstrating its superiority. The code and
datasets will be made public available.
- Abstract(参考訳): 近年,リモートセンシング画像から建物の足跡を抽出することが注目されている。
支配的なアプローチは、このような方法の適用を制限するため、煩雑な改良段階を持つベクタライズド・ビルディング・マスクを生成することで、この問題に対処している。
本稿では, 概念的に直感的で, シンプルで, 効果的である, 改良のない, エンドツーエンドの建築フットプリント抽出手法を提案する。
提案手法は, 直列化頂点を直接双方向に予測する手法として, 順序付き頂点を持つ建物インスタンスを表現し, 建物フットプリント抽出を定式化する。
さらに,高密度建築頂点予測タスクにおいて必須となる,高分解能と豊かな意味的特徴学習を容易にするクロススケール機能融合(csff)モジュールを提案する。
ベルとホイッスルがなければ、私たちのBiSVPは3つのビルディングインスタンスセグメンテーションベンチマークにおいて最先端の手法よりもかなり優れています。
コードとデータセットは公開される予定だ。
関連論文リスト
- RoIPoly: Vectorized Building Outline Extraction Using Vertex and Logit Embeddings [5.093758132026397]
航空画像や衛星画像から建物概要を抽出する新しいクエリベースの手法を提案する。
クエリとして各ポリゴンを定式化し、潜在的ビルディングの最も関連性の高い領域に対してクエリの注意を拘束する。
本手法は,2次元フロアプラン再構築データセットであるStructured3Dを用いて,ベクトル化建物アウトライン抽出データセット(CrowdAI)と2次元フロアプラン再構築データセット(Structured3D)について評価する。
論文 参考訳(メタデータ) (2024-07-20T16:12:51Z) - P2PFormer: A Primitive-to-polygon Method for Regular Building Contour Extraction from Remote Sensing Images [5.589842901102337]
既存の方法は不規則な輪郭、丸い角、冗長点に悩まされている。
本稿では,ポストプロセッシングを使わずに通常の建物輪郭を生成する,新しい合理化パイプラインを提案する。
P2PFormerは、WHU、CrowdAI、WHU-Mixデータセット上で、最先端のパフォーマンスを新たに実現している。
論文 参考訳(メタデータ) (2024-06-05T04:38:45Z) - GDB: Gated convolutions-based Document Binarization [0.0]
我々は、ゲーティング値の学習としてテキスト抽出を定式化し、不正確なストロークエッジ抽出の問題を解決するために、エンドツーエンドのゲート畳み込みネットワーク(GDB)を提案する。
提案するフレームワークは,2つの段階から構成される。第1に,事前マスクとエッジを供給して,より正確な特徴マップを得るために,エッジブランチを付加した粗いサブネットワークを訓練する。
第2に、シャープエッジに基づくゲート畳み込みにより第1ステージの出力を洗練させるために、精製サブネットワークをカスケードする。
論文 参考訳(メタデータ) (2023-02-04T02:56:40Z) - BuildMapper: A Fully Learnable Framework for Vectorized Building Contour
Extraction [3.862461804734488]
我々はBuildMapperという,エンドツーエンドで学習可能な最初のコントラスト抽出フレームワークを提案する。
BuildMapperは、人間がするのと同じように、直接かつ効率的にポリゴンを構築することができる。
マスク平均精度(AP)とバウンダリAPはセグメンテーションベースと輪郭ベースの両方の手法よりも高い結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-07T08:58:35Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Learning Local Displacements for Point Cloud Completion [93.54286830844134]
本稿では,3次元点雲として表現された部分的スキャンからオブジェクトとセマンティックシーンを補完する手法を提案する。
アーキテクチャはエンコーダ-デコーダ構造内で連続的に使用される3つの新しいレイヤに依存している。
オブジェクトと屋内の両方のシーン完了タスクにおけるアーキテクチャの評価を行い、最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-30T18:31:37Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Spatial Pyramid Based Graph Reasoning for Semantic Segmentation [67.47159595239798]
セマンティックセグメンテーションタスクにグラフ畳み込みを適用し、改良されたラプラシアンを提案する。
グラフ推論は、空間ピラミッドとして構成された元の特徴空間で直接実行される。
計算とメモリのオーバーヘッドの利点で同等のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-03-23T12:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。