論文の概要: RemoteNet: Remote Sensing Image Segmentation Network based on
Global-Local Information
- arxiv url: http://arxiv.org/abs/2302.13084v2
- Date: Mon, 14 Aug 2023 13:18:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 22:28:14.532232
- Title: RemoteNet: Remote Sensing Image Segmentation Network based on
Global-Local Information
- Title(参考訳): RemoteNet:グローバルローカル情報に基づくリモートセンシング画像分割ネットワーク
- Authors: Satyawant Kumar, Abhishek Kumar, Dong-Gyu Lee
- Abstract要約: リモートセンシング画像のセグメンテーションのためのリモートセンシング画像セグメンテーションネットワークであるRemoteNetを提案する。
変換器と畳み込み機構の利点を活用することで,グローバルな特徴と局所的な特徴を捉える。
- 参考スコア(独自算出の注目度): 7.953644697658355
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Remotely captured images possess an immense scale and object appearance
variability due to the complex scene. It becomes challenging to capture the
underlying attributes in the global and local context for their segmentation.
Existing networks struggle to capture the inherent features due to the
cluttered background. To address these issues, we propose a remote sensing
image segmentation network, RemoteNet, for semantic segmentation of remote
sensing images. We capture the global and local features by leveraging the
benefits of the transformer and convolution mechanisms. RemoteNet is an
encoder-decoder design that uses multi-scale features. We construct an
attention map module to generate channel-wise attention scores for fusing these
features. We construct a global-local transformer block (GLTB) in the decoder
network to support learning robust representations during a decoding phase.
Further, we designed a feature refinement module to refine the fused output of
the shallow stage encoder feature and the deepest GLTB feature of the decoder.
Experimental findings on the two public datasets show the effectiveness of the
proposed RemoteNet.
- Abstract(参考訳): リモートで撮影された画像は、複雑なシーンのため、膨大なスケールとオブジェクトの外観変化を持っている。
セグメンテーションのグローバルおよびローカルコンテキストにおいて、基盤となる属性をキャプチャすることは困難になる。
既存のネットワークは、乱雑な背景のために固有の特徴を捉えるのに苦労している。
これらの課題に対処するため,リモートセンシング画像のセグメンテーションのためのリモートセンシング画像セグメンテーションネットワークであるRemoteNetを提案する。
我々は、トランスフォーマーと畳み込み機構の利点を利用して、グローバルおよびローカルな特徴を捉える。
RemoteNetは、マルチスケール機能を使用するエンコーダデコーダ設計である。
これらの特徴を活用すべく,チャンネル毎の注意スコアを生成するアテンションマップモジュールを構築した。
我々はデコーダネットワークにグローバルローカルトランスフォーマーブロック(GLTB)を構築し,デコードフェーズにおけるロバスト表現の学習を支援する。
さらに,浅いステージエンコーダ機能と最も深いgltb機能との融合出力を洗練する機能改良モジュールを設計した。
2つの公開データセットに関する実験結果は、提案したRemoteNetの有効性を示している。
関連論文リスト
- LKASeg:Remote-Sensing Image Semantic Segmentation with Large Kernel Attention and Full-Scale Skip Connections [27.473573286685063]
LKASegというリモートセンシング画像セマンティックセマンティックネットワークを提案する。
LKASegはLarge Kernel Attention(LSKA)とFull-Scale Skip Connection(FSC)を組み合わせる
ISPRSのベイヒンゲンデータセットでは、mF1とmIoUのスコアは90.33%と82.77%に達した。
論文 参考訳(メタデータ) (2024-10-14T12:25:48Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - TransY-Net:Learning Fully Transformer Networks for Change Detection of
Remote Sensing Images [64.63004710817239]
リモートセンシング画像CDのためのトランスフォーマーベース学習フレームワークTransY-Netを提案する。
グローバルな視点からの特徴抽出を改善し、ピラミッド方式で多段階の視覚的特徴を組み合わせる。
提案手法は,4つの光学式および2つのSAR画像CDベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-22T07:42:19Z) - Feature Aggregation Network for Building Extraction from High-resolution
Remote Sensing Images [1.7623838912231695]
高解像度衛星リモートセンシングデータ取得は、表面構造的特徴の詳細な抽出の可能性を明らかにした。
現在の手法は、表面特徴の局所化情報にのみ焦点をあてている。
本稿では,グローバル機能とローカル機能の両方を抽出する機能集約ネットワーク(FANet)を提案する。
論文 参考訳(メタデータ) (2023-09-12T07:31:51Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - Conformer: Local Features Coupling Global Representations for Visual
Recognition [72.9550481476101]
本稿では,畳み込み操作と自己アテンション機構を利用した表現学習のためのハイブリッドネットワーク構造,conformerを提案する。
実験では、コンフォーマーが同等のパラメータ複雑性の下で視覚変換器(DeiT-B)を2.3%上回ることが示されている。
論文 参考訳(メタデータ) (2021-05-09T10:00:03Z) - Transformer Meets DCFAM: A Novel Semantic Segmentation Scheme for
Fine-Resolution Remote Sensing Images [6.171417925832851]
Swin Transformerをバックボーンとして導入し、コンテキスト情報を完全に抽出します。
また、高密度接続特徴集合モジュール(DCFAM)と呼ばれる新しいデコーダを設計し、解像度を復元し、セグメンテーションマップを生成する。
論文 参考訳(メタデータ) (2021-04-25T11:34:22Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Designing and Training of A Dual CNN for Image Denoising [117.54244339673316]
クリーンなイメージを復元するためのDual denoising Network(DudeNet)を提案する。
DudeNetは4つのモジュールで構成されている。機能抽出ブロック、拡張ブロック、圧縮ブロック、再構築ブロックである。
論文 参考訳(メタデータ) (2020-07-08T08:16:24Z) - Image fusion using symmetric skip autoencodervia an Adversarial
Regulariser [6.584748347223698]
本稿では,より現実的な融合画像を生成するために,残差対向ネットワークによって正規化された残差自己エンコーダアーキテクチャを提案する。
残余モジュールはエンコーダ、デコーダ、および敵ネットワークの主要なビルディングとして機能する。
本稿では、融合画像と元の視覚画像の教師あり学習を行う対向正規化ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-01T15:31:45Z) - Dual Convolutional LSTM Network for Referring Image Segmentation [18.181286443737417]
イメージセグメンテーションは、コンピュータビジョンと自然言語理解の共通点における問題である。
本稿では,この問題を解決するために,二重畳み込みLSTM(ConvLSTM)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-30T20:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。