論文の概要: LULC classification by semantic segmentation of satellite images using
FastFCN
- arxiv url: http://arxiv.org/abs/2011.06825v2
- Date: Thu, 3 Dec 2020 19:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:45:54.539714
- Title: LULC classification by semantic segmentation of satellite images using
FastFCN
- Title(参考訳): FastFCNを用いた衛星画像のセマンティックセグメンテーションによるLULC分類
- Authors: Md. Saif Hassan Onim, Aiman Rafeed Ehtesham, Amreen Anbar, A. K. M.
Nazrul Islam, A. K. M. Mahbubur Rahman
- Abstract要約: Fast Fully Convolutional Network (FastFCN)は、衛星画像を意味的にセグメント化し、土地利用/土地被覆(LULC)クラスを分類する。
FastFCNはGaofen-2イメージデータセット(GID-2)で、BuildingUp、Meadow、Farmland、Water、Forestの5つのクラスに分類するために使用された。
- 参考スコア(独自算出の注目度): 0.8749675983608171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper analyses how well a Fast Fully Convolutional Network (FastFCN)
semantically segments satellite images and thus classifies Land Use/Land
Cover(LULC) classes. Fast-FCN was used on Gaofen-2 Image Dataset (GID-2) to
segment them in five different classes: BuiltUp, Meadow, Farmland, Water and
Forest. The results showed better accuracy (0.93), precision (0.99), recall
(0.98) and mean Intersection over Union (mIoU)(0.97) than other approaches like
using FCN-8 or eCognition, a readily available software. We presented a
comparison between the results. We propose FastFCN to be both faster and more
accurate automated method than other existing methods for LULC classification.
- Abstract(参考訳): 本稿では,FastFCN(Fast Fully Convolutional Network)が衛星画像のセマンティックセグメンテーションをいかに優れているかを分析し,Land Use/Land Cover(LULC)クラスを分類する。
Fast-FCN は Gaofen-2 Image Dataset (GID-2) で、ビルトアップ、メドウ、ファームランド、ウォーター、フォレストという5つのクラスに分類された。
その結果,fcn-8やecognitionなど他の手法よりも精度 (0.93), 精度 (0.99), リコール (0.98) および平均交点 (miou)(0.97) が向上した。
結果の比較を行った。
我々はfastfcnを,既存のlulc分類法よりも高速かつ高精度な自動化手法として提案する。
関連論文リスト
- SFNet: Faster and Accurate Semantic Segmentation via Semantic Flow [88.97790684009979]
性能を改善するための一般的な実践は、強力な意味表現を持つ高解像度の特徴写像を得ることである。
隣接レベルの特徴マップ間のテキストセマンティックフローを学習するためのフローアライメントモジュール(FAM)を提案する。
また,高分解能特徴写像と低分解能特徴写像を直接整列するGated Dual Flow Alignment Moduleを提案する。
論文 参考訳(メタデータ) (2022-07-10T08:25:47Z) - GCCN: Global Context Convolutional Network [0.2752817022620644]
視覚認識のためのグローバルコンテキスト畳み込みネットワーク(GCCN)を提案する。
GCCNは、画像パッチ全体にわたるコンテキスト情報を表すグローバル機能を計算する。
画像分類のためのベースモデルとしてGCCNを実装した。
論文 参考訳(メタデータ) (2021-10-22T08:46:54Z) - RepMLP: Re-parameterizing Convolutions into Fully-connected Layers for
Image Recognition [123.59890802196797]
画像認識のための多層パーセプトロン型ニューラルネットワーク構築ブロックであるRepMLPを提案する。
トレーニング中にRepMLP内に畳み込み層を構築し,それをFCにマージして推論を行う。
従来のCNNにRepMLPを挿入することで、ImageNetでは1.8%の精度、顔認識では2.9%、FLOPの低いCityscapeでは2.3%のmIoUを改善します。
論文 参考訳(メタデータ) (2021-05-05T06:17:40Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - FPGA: Fast Patch-Free Global Learning Framework for Fully End-to-End
Hyperspectral Image Classification [20.521413406394572]
ハイパースペクトル画像(HSI)分類のための高速パッチフリーグローバルラーニング(FPGA)フレームワークを提案する。
FCNアーキテクチャのより良い設計のために,グローバル空間情報の活用を最大化するためにFreeNetを提案する。
論文 参考訳(メタデータ) (2020-11-11T09:59:48Z) - LULC Segmentation of RGB Satellite Image Using FCN-8 [0.8155575318208631]
本稿では,vgg-16重みを持つFCN-8(Fully Convo-lutional Network)を訓練するための重なりのないグリッドベースアプローチを提案する。
FCN-8は、エンコーダによって学習された低分解能の特徴を高分解能でピクセル空間に意味的に投影し、高密度のクラスiカチオンを得る。
論文 参考訳(メタデータ) (2020-08-24T22:32:30Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z) - Bayesian aggregation improves traditional single image crop
classification approaches [0.0]
1つの衛星画像で作物を分類するための古典的MLアプローチとU-Net NNの比較を示す。
単一の衛星画像の作物分類の最良の結果は、全体的な精度77.4%、マクロF1スコア0.66の勾配上昇のために達成される。
論文 参考訳(メタデータ) (2020-04-07T15:14:03Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。