論文の概要: Building Extraction from Remote Sensing Images via an Uncertainty-Aware
Network
- arxiv url: http://arxiv.org/abs/2307.12309v1
- Date: Sun, 23 Jul 2023 12:42:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 16:39:38.788231
- Title: Building Extraction from Remote Sensing Images via an Uncertainty-Aware
Network
- Title(参考訳): 不確実性認識ネットワークによるリモートセンシング画像からのビルディング抽出
- Authors: Wei He, Jiepan Li, Weinan Cao, Liangpei Zhang, Hongyan Zhang
- Abstract要約: ビルの抽出は、都市計画や都市動態モニタリングなど、多くの応用において重要な役割を担っている。
本稿では,この問題を緩和するために,新規で簡単なUncertainty-Aware Network(UANet)を提案する。
その結果、提案したUANetは、他の最先端アルゴリズムよりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 18.365220543556113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building extraction aims to segment building pixels from remote sensing
images and plays an essential role in many applications, such as city planning
and urban dynamic monitoring. Over the past few years, deep learning methods
with encoder-decoder architectures have achieved remarkable performance due to
their powerful feature representation capability. Nevertheless, due to the
varying scales and styles of buildings, conventional deep learning models
always suffer from uncertain predictions and cannot accurately distinguish the
complete footprints of the building from the complex distribution of ground
objects, leading to a large degree of omission and commission. In this paper,
we realize the importance of uncertain prediction and propose a novel and
straightforward Uncertainty-Aware Network (UANet) to alleviate this problem. To
verify the performance of our proposed UANet, we conduct extensive experiments
on three public building datasets, including the WHU building dataset, the
Massachusetts building dataset, and the Inria aerial image dataset. Results
demonstrate that the proposed UANet outperforms other state-of-the-art
algorithms by a large margin.
- Abstract(参考訳): ビルディング抽出はリモートセンシング画像から画素を分割することを目的としており、都市計画や都市動態モニタリングといった多くの用途において重要な役割を担っている。
近年,エンコーダ・デコーダアーキテクチャを用いたディープラーニング手法は,その強力な特徴表現能力により,優れた性能を発揮している。
しかし、建物の規模や様式が様々であるため、従来のディープラーニングモデルは常に不確実な予測に悩まされており、建物の完全な足跡と地上の複雑な分布を正確に区別できないため、多くの欠落や委任が生じる。
本稿では,不確実な予測の重要性を認識し,この問題を緩和するための新規かつ簡単な不確実性認識ネットワーク(UANet)を提案する。
提案したUANetの性能を検証するため、WHUビルディングデータセット、マサチューセッツビルディングデータセット、Inria空中画像データセットを含む3つのパブリックビルディングデータセットに対して広範な実験を行った。
その結果、提案したUANetは、他の最先端アルゴリズムよりも大きなマージンで優れていることが示された。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - TFNet: Tuning Fork Network with Neighborhood Pixel Aggregation for
Improved Building Footprint Extraction [11.845097068829551]
深層セマンティックセグメンテーションのための新しいチューニングフォークネットワーク(TFNet)の設計を提案する。
TFNetの設計は、トレーニングプロセス中にタイル境界に周辺情報を組み込む新しい手法と組み合わせられている。
パフォーマンス比較では、SpaceNet2とWHUのデータセットと、密接な接続された建物をキャプチャするパキスタンのラホールのエリアからのデータセットを使用します。
論文 参考訳(メタデータ) (2023-11-05T10:52:16Z) - Performance Analysis of Various EfficientNet Based U-Net++ Architecture
for Automatic Building Extraction from High Resolution Satellite Images [0.0]
ビルディング抽出は高解像度リモートセンシング画像のセマンティックセグメンテーションに大きく依存している。
本研究では,ネットワークバックボーンをベースとした様々なU-Net++を提案する。
実験結果によると,提案モデルは従来の最先端アプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-05T18:14:14Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - BuildFormer: Automatic building extraction with vision transformer [7.577142111447444]
本稿では,超高解像度リモートセンシング画像,すなわちBuildFormerから建物を抽出するトランスフォーマーネットワークを提案する。
ResNetとの比較において,提案手法はWHU構築データセット上でmIoUの2%の改善を実現する。
論文 参考訳(メタデータ) (2021-11-29T11:23:52Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - CG-Net: Conditional GIS-aware Network for Individual Building
Segmentation in VHR SAR Images [25.87229252642239]
本稿では,大規模都市部における単一VHR SAR画像からの建物分割の問題点について述べる。
我々はGISデータから構築するフットプリントを補完情報として紹介し、新しい条件付きGIS対応ネットワーク(CG-Net)を提案する。
提案モデルでは,多段階の視覚的特徴を学習し,SAR画像におけるマスクの予測のための特徴を正規化するために,建築フットプリントを用いる。
論文 参考訳(メタデータ) (2020-11-17T01:52:22Z) - Counting from Sky: A Large-scale Dataset for Remote Sensing Object
Counting and A Benchmark Method [52.182698295053264]
リモートセンシング画像から高密度物体をカウントすることに興味がある。自然界における物体のカウントと比較すると、このタスクは、大規模変動、複雑な乱れ背景、配向仲裁といった要因において困難である。
これらの課題に対処するために,我々はまず,4つの重要な地理的対象を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-08-28T03:47:49Z) - Boundary Regularized Building Footprint Extraction From Satellite Images
Using Deep Neural Network [6.371173732947292]
本稿では,1つの衛星画像から構築事例を共同で検出し,ノイズの多い建物の境界形状を規則化する,新しいディープニューラルネットワークを提案する。
本モデルでは,オブジェクトの局所化,認識,セマンティックラベリング,幾何学的形状抽出を同時に行うことができる。
論文 参考訳(メタデータ) (2020-06-23T17:24:09Z) - Counting dense objects in remote sensing images [52.182698295053264]
特定の画像から関心のあるオブジェクトの数を推定するのは、難しいが重要な作業である。
本稿では,リモートセンシング画像から高密度物体を数えることに興味がある。
これらの課題に対処するために,我々はまず,リモートセンシング画像に基づく大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-02-14T09:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。