論文の概要: Expediting Building Footprint Segmentation from High-resolution Remote
Sensing Images via progressive lenient supervision
- arxiv url: http://arxiv.org/abs/2307.12220v1
- Date: Sun, 23 Jul 2023 03:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:21:47.326528
- Title: Expediting Building Footprint Segmentation from High-resolution Remote
Sensing Images via progressive lenient supervision
- Title(参考訳): プログレッシブ・レネエント・監督による高解像度リモートセンシング画像からの建物足跡分割の迅速化
- Authors: Haonan Guo, Bo Du, Chen Wu, Xin Su, Liangpei Zhang
- Abstract要約: 学習効率と効率性を高めるために,BFSeg と表記される効率的なフレームワークを提案する。
具体的には、高密度に接続された粗大な特徴核融合デコーダネットワークで、スケールをまたいで簡単に高速な特徴核融合を容易にする。
我々は,ネットワークが深い監督から適切な知識を学べる,豊富な深層監視・蒸留戦略を提案する。
- 参考スコア(独自算出の注目度): 41.383234170349866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The efficacy of building footprint segmentation from remotely sensed images
has been hindered by model transfer effectiveness. Many existing building
segmentation methods were developed upon the encoder-decoder architecture of
U-Net, in which the encoder is finetuned from the newly developed backbone
networks that are pre-trained on ImageNet. However, the heavy computational
burden of the existing decoder designs hampers the successful transfer of these
modern encoder networks to remote sensing tasks. Even the widely-adopted deep
supervision strategy fails to mitigate these challenges due to its invalid loss
in hybrid regions where foreground and background pixels are intermixed. In
this paper, we conduct a comprehensive evaluation of existing decoder network
designs for building footprint segmentation and propose an efficient framework
denoted as BFSeg to enhance learning efficiency and effectiveness.
Specifically, a densely-connected coarse-to-fine feature fusion decoder network
that facilitates easy and fast feature fusion across scales is proposed.
Moreover, considering the invalidity of hybrid regions in the down-sampled
ground truth during the deep supervision process, we present a lenient deep
supervision and distillation strategy that enables the network to learn proper
knowledge from deep supervision. Building upon these advancements, we have
developed a new family of building segmentation networks, which consistently
surpass prior works with outstanding performance and efficiency across a wide
range of newly developed encoder networks. The code will be released on
https://github.com/HaonanGuo/BFSeg-Efficient-Building-Footprint-Segmentation-Framework.
- Abstract(参考訳): リモートセンシング画像からのビルフットプリントセグメンテーションの有効性は,モデル転送の有効性によって阻害されている。
既存の多くのビルセグメンテーション手法は、イメージネットで事前学習された新しく開発されたバックボーンネットワークからエンコーダを微調整したu-netのエンコーダ-デコーダアーキテクチャに基づいて開発された。
しかし、既存のデコーダ設計の重い計算負荷は、これらの現代のエンコーダネットワークをリモートセンシングタスクに移すのを妨げている。
広く採用されている深層監視戦略でさえ、フォアグラウンドと背景画素が混在するハイブリッド領域において、これらの課題を軽減できない。
本稿では,既存のデコーダネットワークの設計を包括的に評価し,学習効率と有効性を高めるためにbfsegと呼ばれる効率的な枠組みを提案する。
具体的には,大規模にまたがる簡易かつ高速な特徴融合を容易にする高密結合型特徴融合デコーダネットワークを提案する。
さらに,深層監視過程におけるダウンサンプリング・グラウンド真理におけるハイブリッド領域の無効性を考慮して,ネットワークが深層監視から適切な知識を学習できる寛大な深層監視・蒸留戦略を提案する。
これらの進歩を基盤として、我々は、広範囲の新規開発エンコーダネットワークにまたがる性能と効率の優れた先行研究を一貫して超越した、建築セグメンテーションネットワークの新たなファミリーを開発した。
コードはhttps://github.com/HaonanGuo/BFSeg-Efficient-Building-Footprint-Segmentation-Frameworkでリリースされる。
関連論文リスト
- Densely Decoded Networks with Adaptive Deep Supervision for Medical
Image Segmentation [19.302294715542175]
本稿では「クラッチ」ネットワーク接続を選択的に導入し、高密度デコードネットワーク(ddn)を提案する。
ネットワークデコーダの各アップサンプリングステージにおける「クラッチ」接続により、ターゲットのローカライゼーションが向上する。
また、適応的な深層監視(ads)に基づくトレーニング戦略を提案し、入力データセットの特定の属性を利用して適応する。
論文 参考訳(メタデータ) (2024-02-05T00:44:57Z) - SERNet-Former: Semantic Segmentation by Efficient Residual Network with
Attention-Boosting Gates and Attention-Fusion Networks [0.0]
本研究では,一意に効率的な残差ネットワークであるEfficient-ResNetを用いたエンコーダデコーダアーキテクチャを提案する。
アテンションブーティングゲート(AbG)とアテンションブーイングモジュール(AbM)は、グローバルコンテキストの出力の等価サイズで同変および特徴に基づく意味情報を融合することを目的として展開される。
我々のネットワークは、挑戦的なCamVidとCityscapesのデータセットでテストされており、提案手法により、残余ネットワークに対する大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-01-28T19:58:19Z) - Effective Image Tampering Localization via Semantic Segmentation Network [0.4297070083645049]
既存の画像法は、精度と堅牢性の低い課題に直面している。
本稿では,ディープセマンティックセグメンテーションネットワークに基づく画像改ざん手法を提案する。
論文 参考訳(メタデータ) (2022-08-29T17:22:37Z) - Adaptive Image Inpainting [43.02281823557039]
ディープニューラルネットワークを使用することで、塗装法は大幅に改善されている。
この問題は、欠落した領域の完全かつ忠実な埋め込みを構築する際のエンコーダ層の非効率性に根ざしている。
本稿では, エンコーダ層に対して, 直接的特徴レベルの監視を行う蒸留方式を提案する。
論文 参考訳(メタデータ) (2022-01-01T12:16:01Z) - Crosslink-Net: Double-branch Encoder Segmentation Network via Fusing
Vertical and Horizontal Convolutions [58.71117402626524]
医用画像分割のための新しいダブルブランチエンコーダアーキテクチャを提案する。
1)正方形畳み込みカーネルによる特徴の識別をさらに改善する必要があるため,非正方形および水平畳み込みカーネルの利用を提案する。
実験では,4つのデータセット上でのモデルの有効性を検証した。
論文 参考訳(メタデータ) (2021-07-24T02:58:32Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - EfficientFCN: Holistically-guided Decoding for Semantic Segmentation [49.27021844132522]
最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T14:48:23Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。