論文の概要: Building Footprint Generation by IntegratingConvolution Neural Network
with Feature PairwiseConditional Random Field (FPCRF)
- arxiv url: http://arxiv.org/abs/2002.04600v1
- Date: Tue, 11 Feb 2020 18:51:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:21:26.087007
- Title: Building Footprint Generation by IntegratingConvolution Neural Network
with Feature PairwiseConditional Random Field (FPCRF)
- Title(参考訳): FPCRF(Feature Pairwise Conditional Random Field)を用いた畳み込みニューラルネットワークによる足跡生成
- Authors: Qingyu Li, Yilei Shi, Xin Huang, Xiao Xiang Zhu
- Abstract要約: 建築フットプリントマップは、3Dビルディングモデリング、都市計画、災害管理など、多くのリモートセンシングアプリケーションにとって不可欠である。
本研究では,畳み込みニューラルネットワーク(CNN)とグラフモデルを組み合わせたエンドツーエンドな構築フットプリント生成手法を提案する。
- 参考スコア(独自算出の注目度): 21.698236040666675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building footprint maps are vital to many remote sensing applications, such
as 3D building modeling, urban planning, and disaster management. Due to the
complexity of buildings, the accurate and reliable generation of the building
footprint from remote sensing imagery is still a challenging task. In this
work, an end-to-end building footprint generation approach that integrates
convolution neural network (CNN) and graph model is proposed. CNN serves as the
feature extractor, while the graph model can take spatial correlation into
consideration. Moreover, we propose to implement the feature pairwise
conditional random field (FPCRF) as a graph model to preserve sharp boundaries
and fine-grained segmentation. Experiments are conducted on four different
datasets: (1) Planetscope satellite imagery of the cities of Munich, Paris,
Rome, and Zurich; (2) ISPRS benchmark data from the city of Potsdam, (3) Dstl
Kaggle dataset; and (4) Inria Aerial Image Labeling data of Austin, Chicago,
Kitsap County, Western Tyrol, and Vienna. It is found that the proposed
end-to-end building footprint generation framework with the FPCRF as the graph
model can further improve the accuracy of building footprint generation by
using only CNN, which is the current state-of-the-art.
- Abstract(参考訳): 建築フットプリントマップは、3Dビルディングモデリング、都市計画、災害管理など、多くのリモートセンシングアプリケーションにとって不可欠である。
建物の複雑さのため、リモートセンシングによる建物のフットプリントの正確かつ信頼性の高い生成は依然として困難な課題である。
本研究では,畳み込みニューラルネットワーク(cnn)とグラフモデルを統合するエンドツーエンド構築足跡生成手法を提案する。
CNNは特徴抽出器として機能し、グラフモデルは空間的相関を考慮することができる。
さらに,特徴対条件付きランダムフィールド(FPCRF)をグラフモデルとして実装し,シャープな境界ときめ細かいセグメンテーションを実現する。
1) ミュンヘン, パリ, ローマ, チューリッヒの都市のプラネタスコープ衛星画像, (2) ポツダム市のisprsベンチマークデータ, (3) dstlカグルデータセット, (4) オースティン, シカゴ, キサップ郡, 西チロル, ウィーンのインリア航空画像ラベリングデータである。
グラフモデルとしてFPCRFを用いたエンドツーエンドの建築フットプリント生成フレームワークは,現在の最先端技術であるCNNのみを用いて,建築フットプリント生成の精度をさらに向上させることができる。
関連論文リスト
- Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - TFNet: Tuning Fork Network with Neighborhood Pixel Aggregation for
Improved Building Footprint Extraction [11.845097068829551]
深層セマンティックセグメンテーションのための新しいチューニングフォークネットワーク(TFNet)の設計を提案する。
TFNetの設計は、トレーニングプロセス中にタイル境界に周辺情報を組み込む新しい手法と組み合わせられている。
パフォーマンス比較では、SpaceNet2とWHUのデータセットと、密接な接続された建物をキャプチャするパキスタンのラホールのエリアからのデータセットを使用します。
論文 参考訳(メタデータ) (2023-11-05T10:52:16Z) - AutoEncoding Tree for City Generation and Applications [33.364915512018364]
都市内の膨大な空間データが生成モデルに挑戦している。
公開されている3D都市データセットはほとんどなく、都市生成の方法の開発を妨げている。
本稿では,木構造自己エンコーダニューラルネットワークであるAETreeを提案する。
論文 参考訳(メタデータ) (2023-09-27T18:36:56Z) - Building Extraction from Remote Sensing Images via an Uncertainty-Aware
Network [18.365220543556113]
ビルの抽出は、都市計画や都市動態モニタリングなど、多くの応用において重要な役割を担っている。
本稿では,この問題を緩和するために,新規で簡単なUncertainty-Aware Network(UANet)を提案する。
その結果、提案したUANetは、他の最先端アルゴリズムよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-07-23T12:42:15Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - Building Footprint Extraction with Graph Convolutional Network [20.335884170850193]
都市モデルの3次元再構築には,足跡情報の構築が不可欠である。
ディープ畳み込みニューラルネットワーク(DCNN)の最近の進歩は、正確なピクセルレベルのラベリングタスクを可能にしている。
本研究では,グラフ畳み込みネットワーク (GCN) をフットプリント抽出タスクの構築に用い,この問題を克服するためのエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T06:50:05Z) - Elevation Estimation-Driven Building 3D Reconstruction from Single-View
Remote Sensing Imagery [20.001807614214922]
リモートセンシング画像からの3D再構築は、スマートシティやフォトグラムなどの分野に幅広い応用がある。
入力単視点リモートセンシング画像から3次元ビルディングモデルを再構築するための効率的なDSM推定駆動再構築フレームワーク(Building3D)を提案する。
我々のビル3Dは高度予測のためのSFFDEネットワークに根ざし、マスク構築のためのビル抽出ネットワークと同期し、点雲再構成、表面再構成(シティGMLモデル再構成)を順次実施する。
論文 参考訳(メタデータ) (2023-01-11T17:20:30Z) - Spatio-Temporal Graph Few-Shot Learning with Cross-City Knowledge
Transfer [58.6106391721944]
クロスシティの知識は、データ不足の都市から学んだモデルを活用して、データ不足の都市の学習プロセスに役立てるという、その将来性を示している。
本稿では,ST-GFSLと呼ばれるS時間グラフのためのモデルに依存しない数ショット学習フレームワークを提案する。
本研究では,4つの交通速度予測ベンチマークの総合的な実験を行い,ST-GFSLの有効性を最先端手法と比較した。
論文 参考訳(メタデータ) (2022-05-27T12:46:52Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。