論文の概要: MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images
- arxiv url: http://arxiv.org/abs/2007.13083v3
- Date: Wed, 4 May 2022 18:44:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 20:12:11.627346
- Title: MACU-Net for Semantic Segmentation of Fine-Resolution Remotely Sensed
Images
- Title(参考訳): リモートセンシング画像のセマンティックセグメンテーションのためのMACU-Net
- Authors: Rui Li, Chenxi Duan, Shunyi Zheng, Ce Zhang and Peter M. Atkinson
- Abstract要約: MACU-Netは、マルチスケールのスキップ接続と非対称畳み込みベースのU-Netで、微細解像度のリモートセンシング画像を提供する。
本設計では,(1)低レベル・高レベルの特徴写像に含まれる意味的特徴と,(2)非対称な畳み込みブロックは,標準畳み込み層の特徴表現と特徴抽出能力を強化する。
2つのリモートセンシングデータセットで行った実験では、提案したMACU-NetがU-Net、U-NetPPL、U-Net 3+、その他のベンチマークアプローチを超越していることが示されている。
- 参考スコア(独自算出の注目度): 11.047174552053626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of remotely sensed images plays an important role in
land resource management, yield estimation, and economic assessment. U-Net, a
deep encoder-decoder architecture, has been used frequently for image
segmentation with high accuracy. In this Letter, we incorporate multi-scale
features generated by different layers of U-Net and design a multi-scale skip
connected and asymmetric-convolution-based U-Net (MACU-Net), for segmentation
using fine-resolution remotely sensed images. Our design has the following
advantages: (1) The multi-scale skip connections combine and realign semantic
features contained in both low-level and high-level feature maps; (2) the
asymmetric convolution block strengthens the feature representation and feature
extraction capability of a standard convolution layer. Experiments conducted on
two remotely sensed datasets captured by different satellite sensors
demonstrate that the proposed MACU-Net transcends the U-Net, U-NetPPL, U-Net
3+, amongst other benchmark approaches. Code is available at
https://github.com/lironui/MACU-Net.
- Abstract(参考訳): リモートセンシング画像の意味セグメンテーションは、土地資源管理、収量推定、経済評価において重要な役割を果たす。
ディープエンコーダ-デコーダアーキテクチャであるu-netは、精度の高い画像分割に頻繁に使われている。
本稿では,U-Netの異なる層が生成するマルチスケール機能と,微細解像度のリモートセンシング画像を用いたセグメンテーションのためのマルチスケールスキップ接続および非対称畳み込みベースU-Net(MACU-Net)を設計する。
1) マルチスケールのスキップ接続は低レベルと高レベルの両方の機能マップに含まれる意味的特徴を結合し、再定義すること, (2) 非対称畳み込みブロックは標準畳み込み層の特徴表現と特徴抽出能力を強化する。
異なる衛星センサーによってキャプチャされた2つのリモートセンシングデータセットで実施された実験は、提案されたMACU-NetがU-Net、U-NetPPL、U-Net 3+を超越していることを示す。
コードはhttps://github.com/lironui/MACU-Netで入手できる。
関連論文リスト
- Lightweight Salient Object Detection in Optical Remote-Sensing Images
via Semantic Matching and Edge Alignment [61.45639694373033]
セマンティックマッチングとエッジアライメントに基づく光リモートセンシング画像(ORSI-SOD)のための新しい軽量ネットワークSeaNetを提案する。
具体的には、機能抽出のための軽量MobileNet-V2、高レベルの機能のための動的セマンティックマッチングモジュール(DSMM)、推論のためのポータブルデコーダが含まれる。
論文 参考訳(メタデータ) (2023-01-07T04:33:51Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Multi-level Second-order Few-shot Learning [111.0648869396828]
教師付きまたは教師なしの少数ショット画像分類と少数ショット動作認識のためのマルチレベル2次数列学習ネットワーク(MlSo)を提案する。
我々は、パワーノーマライズされた二階学習者ストリームと、複数のレベルの視覚的抽象化を表現する機能を組み合わせた、いわゆる2階学習者ストリームを活用している。
我々は,Omniglot, mini-ImageNet, tiered-ImageNet, Open MIC, CUB Birds, Stanford Dogs, Cars, HMDB51, UCF101, mini-MITなどのアクション認識データセットなどの標準データセットに対して,優れた結果を示す。
論文 参考訳(メタデータ) (2022-01-15T19:49:00Z) - Multi-Content Complementation Network for Salient Object Detection in
Optical Remote Sensing Images [108.79667788962425]
光リモートセンシング画像(RSI-SOD)における有能な物体検出は、いまだに課題である。
本稿では, RSI-SOD における複数コンテンツの相補性を検討するために, MCCNet (Multi-Content Complementation Network) を提案する。
MCCMでは、前景機能、エッジ機能、背景機能、グローバル画像レベル機能など、RSI-SODにとって重要な複数の機能について検討する。
論文 参考訳(メタデータ) (2021-12-02T04:46:40Z) - Sharp U-Net: Depthwise Convolutional Network for Biomedical Image
Segmentation [1.1501261942096426]
U-Netはバイオメディカルイメージセグメンテーションに有効であることが証明されている。
我々は,シャープU-Netと呼ばれる,シンプルで効果的なエンコーダ・デコーダ完全畳み込み型ネットワークアーキテクチャを提案する。
実験の結果,提案したシャープU-Netモデルは,2進および多進のセグメンテーションタスクにおいて,最新の最先端ベースラインより一貫して優れているか,あるいは一致していることがわかった。
論文 参考訳(メタデータ) (2021-07-26T20:27:25Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - MP-ResNet: Multi-path Residual Network for the Semantic segmentation of
High-Resolution PolSAR Images [21.602484992154157]
本稿では,高解像度PolSAR画像のセマンティックセグメンテーションのためのマルチパスResNet(MP-ResNet)アーキテクチャを提案する。
従来のU字型エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)アーキテクチャと比較して、MP-ResNetは並列なマルチスケールブランチでセマンティックコンテキストを学習する。
論文 参考訳(メタデータ) (2020-11-10T13:28:36Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z) - Multi-Attention-Network for Semantic Segmentation of Fine Resolution
Remote Sensing Images [10.835342317692884]
リモートセンシング画像におけるセマンティックセグメンテーションの精度は、ディープ畳み込みニューラルネットワークによって著しく向上した。
本稿では,これらの問題に対処するマルチアテンション・ネットワーク(MANet)を提案する。
線形複雑性を伴うカーネル注意の新たなアテンション機構が提案され,注目される計算負荷の低減が図られた。
論文 参考訳(メタデータ) (2020-09-03T09:08:02Z) - A novel Deep Structure U-Net for Sea-Land Segmentation in Remote Sensing
Images [30.39131853354783]
本稿では,Residual Dense U-Net (RDU-Net) を用いた画素ワイド海面分割のための新しいディープニューラルネットワーク構造を提案する。
RDU-Netは、十分な結果を得るために、ダウンサンプリングとアップサンプリングの2つのパスの組み合わせである。
論文 参考訳(メタデータ) (2020-03-17T16:00:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。