論文の概要: Feature Pyramid Network with Multi-Head Attention for Se-mantic
Segmentation of Fine-Resolution Remotely Sensed Im-ages
- arxiv url: http://arxiv.org/abs/2102.07997v1
- Date: Tue, 16 Feb 2021 07:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:04:25.327413
- Title: Feature Pyramid Network with Multi-Head Attention for Se-mantic
Segmentation of Fine-Resolution Remotely Sensed Im-ages
- Title(参考訳): リモートセンシングインジェクションのセマンティックセグメンテーションのためのマルチヘッド注意型特徴ピラミッドネットワーク
- Authors: Rui Li, Shunyi Zheng, Chenxi Duan
- Abstract要約: 我々は,低レベル機能と高レベル機能のギャップを埋めるために,機能ピラミッドネットワーク(fpn)を導入する。
本研究では,ファインレゾリューションリモートセンシング画像のセマンティックセグメンテーションのためのマルチヘッドアテンション(FPN-MHA)を備えた特徴ピラミッドネットワークを提案する。
- 参考スコア(独自算出の注目度): 4.869987958751064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation from fine-resolution remotely sensed images is an
urgent issue in satellite imagery processing. Due to the complicated
environment, automatic categorization and segmen-tation is a challenging matter
especially for images with a fine resolution. Solving it can help to surmount a
wide varied range of obstacles in urban planning, environmental protection, and
natural landscape monitoring, which paves the way for complete scene
understanding. However, the existing frequently-used encoder-decoder structure
is unable to effectively combine the extracted spatial and contextual features.
Therefore, in this paper, we introduce the Feature Pyramid Net-work (FPN) to
bridge the gap between the low-level and high-level features. Moreover, we
enhance the contextual information with the elaborate Multi-Head Attention
module and propose the Feature Pyramid Network with Multi-Head Attention
(FPN-MHA) for semantic segmentation of fine-resolution remotely sensed images.
Extensive experiments conducted on the ISPRS Potsdam and Vaihingen datasets
demonstrate the effectiveness of our FPN-MHA. Code is available at
https://github.com/lironui/FPN-MHA.
- Abstract(参考訳): 衛星画像処理では、リモートセンシング画像からセマンティックセグメンテーションを行うことが急務です。
複雑な環境のため、特に精細な解像度を持つ画像では、自動分類とセグメンテーションは難しい課題である。
この問題を解決することは、都市計画、環境保護、自然景観モニタリングにおいて幅広い障害を克服し、完全な風景理解の道を開くのに役立つ。
しかし、既存の頻繁に使用されるエンコーダデコーダ構造は、抽出された空間的および文脈的特徴を効果的に組み合わせることができない。
そこで本稿では,FPN(Feature Pyramid Net-work)を導入し,低レベル特徴と高レベルの特徴のギャップを埋める。
さらに、精巧なマルチヘッドアテンションモジュールでコンテキスト情報を強化し、ファインレゾリューションリモートセンシング画像のセマンティックセグメンテーションのためのマルチヘッドアテンション(FPN-MHA)を備えた特徴ピラミッドネットワークを提案します。
ISPRS PotsdamおよびVaihingenデータセット上で実施された広範な実験は、FPN-MHAの有効性を示しています。
コードはhttps://github.com/lironui/FPN-MHAで入手できる。
関連論文リスト
- Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Decoupled-and-Coupled Networks: Self-Supervised Hyperspectral Image
Super-Resolution with Subpixel Fusion [67.35540259040806]
サブピクセルレベルのHS超解像フレームワークを提案する。
名前が示すように、DC-Netはまず入力を共通(またはクロスセンサー)とセンサー固有のコンポーネントに分離する。
我々は,CSUネットの裏側に自己教師付き学習モジュールを付加し,素材の整合性を保証し,復元されたHS製品の詳細な外観を向上する。
論文 参考訳(メタデータ) (2022-05-07T23:40:36Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - Transformer Meets Convolution: A Bilateral Awareness Net-work for
Semantic Segmentation of Very Fine Resolution Ur-ban Scene Images [6.460167724233707]
本稿では,依存経路とテクスチャパスを含む相互認知ネットワーク(BANet)を提案する。
BANetは、VFR画像の長距離関係と細かな詳細をキャプチャする。
3つの大規模都市景観画像セグメンテーションデータセット(ISPRS Vaihingen データセット、ISPRS Potsdam データセット、UAVid データセット)で実施された実験は、BANetの有効性を実証している。
論文 参考訳(メタデータ) (2021-06-23T13:57:36Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Multi-layer Feature Aggregation for Deep Scene Parsing Models [19.198074549944568]
本稿では,深層解析ネットワークにおける多層特徴出力の空間-意味的整合性に対する有効利用について検討する。
提案モジュールは、空間情報と意味情報を相関付けるために、中間視覚特徴を自動選択することができる。
4つの公開シーン解析データセットの実験により、提案した機能集約モジュールを備えたディープパーシングネットワークは、非常に有望な結果が得られることが証明された。
論文 参考訳(メタデータ) (2020-11-04T23:07:07Z) - Spatial--spectral FFPNet: Attention-Based Pyramid Network for
Segmentation and Classification of Remote Sensing Images [12.320585790097415]
本研究では,リモートセンシングデータセットのセグメンテーションと分類のためのアテンションベースのピラミッドネットワークを開発する。
ISPRS Vaihingen と ISPRS Potsdam の高分解能データセットを用いて行った実験は、提案した重み空間FFPNetによる競合セグメンテーション精度を示す。
論文 参考訳(メタデータ) (2020-08-20T04:55:34Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。