論文の概要: Exploration of Convolutional Neural Network Architectures for Large
Region Map Automation
- arxiv url: http://arxiv.org/abs/2211.03854v1
- Date: Mon, 7 Nov 2022 20:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:36:03.182612
- Title: Exploration of Convolutional Neural Network Architectures for Large
Region Map Automation
- Title(参考訳): 大規模地図自動化のための畳み込みニューラルネットワークアーキテクチャの探索
- Authors: R. M. Tsenov, C. J. Henry, J. L. Storie, C. D. Storie, B. Murray, M.
Sokolov
- Abstract要約: LULCマップの精度を向上させるため,28種類のモデルバリエーションについて検討した。
ランドサット5/7またはランドサット8の衛星画像を用いて、北米のランドチェンジ監視システム (Landsat Monitoring System) ラベルを用いて実験を行った。
ディープニューラルネットワークを用いて、この研究はマニトバ南部の13のLULCクラスに対して92.4%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning semantic segmentation algorithms have provided improved
frameworks for the automated production of Land-Use and Land-Cover (LULC) maps,
which significantly increases the frequency of map generation as well as
consistency of production quality. In this research, a total of 28 different
model variations were examined to improve the accuracy of LULC maps. The
experiments were carried out using Landsat 5/7 or Landsat 8 satellite images
with the North American Land Change Monitoring System labels. The performance
of various CNNs and extension combinations were assessed, where VGGNet with an
output stride of 4, and modified U-Net architecture provided the best results.
Additional expanded analysis of the generated LULC maps was also provided.
Using a deep neural network, this work achieved 92.4% accuracy for 13 LULC
classes within southern Manitoba representing a 15.8% improvement over
published results for the NALCMS. Based on the large regions of interest,
higher radiometric resolution of Landsat 8 data resulted in better overall
accuracies (88.04%) compare to Landsat 5/7 (80.66%) for 16 LULC classes. This
represents an 11.44% and 4.06% increase in overall accuracy compared to
previously published NALCMS results, including larger land area and higher
number of LULC classes incorporated into the models compared to other published
LULC map automation methods.
- Abstract(参考訳): 深層学習セマンティックセグメンテーションアルゴリズムは、Land-UseとLand-Cover(LULC)マップの自動生産のための改良されたフレームワークを提供する。
本研究では,lulcマップの精度を向上させるため,28種類のモデルのバリエーションについて検討した。
実験は、ランドサット5/7またはランドサット8の衛星画像を北米のランドチェンジ監視システムラベルを用いて行った。
様々なCNNと拡張組み合わせの性能を評価し、VGGNetと出力ストライドが4で、修正されたU-Netアーキテクチャが最良の結果となった。
生成したLULCマップのさらなる拡張分析も提供された。
ディープニューラルネットワークを用いて、この研究はマニトバ南部の13のLULCクラスに対して92.4%の精度を達成し、NALCMSの結果よりも15.8%改善した。
利害関係が大きい地域では、ランドサット8号の放射能分解能が高く、16のllcクラスでランドサット5/7 (80.66%) と比較すると、全体的な精度(88.04%)が向上した。
これは、これまで公表されたNALCMS結果と比較して11.44%と4.06%の精度向上を示しており、また、他のLULCマップ自動化手法と比較して、より大きな土地面積とLULCクラスがモデルに組み込まれている。
関連論文リスト
- Less is More: Fewer Interpretable Region via Submodular Subset Selection [58.01691615408149]
本稿では,上述の画像帰属問題を部分モジュラ部分選択問題として再モデル化する。
我々は、より正確な小さな解釈領域を発見するために、新しい部分モジュラー関数を構築する。
正しく予測されたサンプルに対しては,HSIC-Attributionに対する平均4.9%と2.5%の利得で,Deletion and Insertionスコアを改善した。
論文 参考訳(メタデータ) (2024-02-14T13:30:02Z) - Distortions in Judged Spatial Relations in Large Language Models: The
Dawn of Natural Language Geographic Data? [50.11601704574547]
GPT-4は55.3%の精度で優れた性能を示し、GPT-3.5は47.3%、Llama-2は44.7%であった。
これらの不正確さにもかかわらず、ほとんどの場合、モデルは最も近い基数方向を特定した。
論文 参考訳(メタデータ) (2024-01-08T20:08:04Z) - Recognize Any Regions [59.08881073582635]
RegionSpotは、ローカライゼーション基盤モデルから位置認識のローカライゼーション知識と、ViLモデルから抽出されたセマンティック情報を統合するように設計されている。
我々のモデルは平均的精度(mAP)でGLIPを6.5%上回り、より困難で稀なカテゴリーではさらに14.8%の差がある。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z) - Pre-processing training data improves accuracy and generalisability of
convolutional neural network based landscape semantic segmentation [2.8747398859585376]
オーストラリア,クイーンズランド州ウェット・トロピクスとアザートン・テーブルランズ上空の航空写真における土地利用土地被覆(LULC)の特徴のセマンティックセグメンテーションとCNN訓練のための様々なデータ準備方法を試行した。
これは、さまざまなトレーニングパッチ選択サンプリング戦略、パッチとバッチサイズ、データ拡張とスケーリングの試行とランキングによって実施された。
我々は、2018年のトレーニング画像上で5つのモデルを訓練し、2015年の試験画像に適用し、出力LULC分類により平均ユーザ精度0.84、生産精度0.87を達成した。
論文 参考訳(メタデータ) (2023-04-28T04:38:45Z) - Strict baselines for Covid-19 forecasting and ML perspective for USA and
Russia [105.54048699217668]
Covid-19は、2年間にわたって蓄積されたデータセットを収集し、予測分析に使用できるようにする。
本研究は、米国とロシアの2カ国の地域データに基づいて、Covid-19の拡散のダイナミクスを予測するための様々な種類の方法に関する一貫した研究結果である。
論文 参考訳(メタデータ) (2022-07-15T18:21:36Z) - Rethinking gradient weights' influence over saliency map estimation [0.0]
クラスアクティベーションマップ(CAM)は、ディープニューラルネットワークの予測を解釈するのに役立つサリエンシマップの定式化を支援する。
本稿では,サリエンシ推定時の重み付けアグリゲーション操作を補正するためのグローバルガイダンスマップを提案する。
提案手法は,ImageNet, MS-COCO 14, PASCAL VOC 2012データセットから得られたテスト画像よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-07-12T08:14:57Z) - Semantic Segmentation by Early Region Proxy [53.594035639400616]
本稿では,学習可能な領域のテッセルレーションとしてイメージを解釈することから始まる,新規で効率的なモデリングについて述べる。
領域のコンテキストをモデル化するために,Transformerを用いてシーケンス・ツー・シーケンス方式で領域を符号化する。
現在、符号化された領域埋め込みの上に、領域ごとのセマンティックセグメンテーションを行う。
論文 参考訳(メタデータ) (2022-03-26T10:48:32Z) - Jalisco's multiclass land cover analysis and classification using a
novel lightweight convnet with real-world multispectral and relief data [51.715517570634994]
本稿では、LC分類と解析を行うために、新しい軽量(89kパラメータのみ)畳み込みニューラルネットワーク(ConvNet)を提案する。
本研究では,実世界のオープンデータソースを3つ組み合わせて13のチャネルを得る。
組込み分析は、いくつかのクラスにおいて限られたパフォーマンスを期待し、最も類似したクラスをグループ化する機会を与えてくれます。
論文 参考訳(メタデータ) (2022-01-26T14:58:51Z) - Deep Transfer Learning for Land Use Land Cover Classification: A
Comparative Study [0.0]
本研究では,CNNをスクラッチからトレーニングする代わりに,事前学習ネットワークを微調整するトランスファーラーニングを利用する。
提案したアプローチにより、限られたデータ問題に対処することができ、非常に高い精度を実現しました。
論文 参考訳(メタデータ) (2021-10-06T08:46:57Z) - Improving Landslide Detection on SAR Data through Deep Learning [0.0]
深層学習畳み込みニューラルネットワーク(cnns)を用いて,光学画像上の地すべりマッピングと分類性能を評価する。
約8000の地震地すべりを発生させた地震前後の状況を分析した。
グラウンドレンジ検出(GRD)SARデータの組み合わせに基づくCNNは、全体の94%を超える精度に達した。
論文 参考訳(メタデータ) (2021-05-03T12:37:57Z) - Landslide Segmentation with U-Net: Evaluating Different Sampling Methods
and Patch Sizes [0.0]
この研究は、ブラジルのノヴァ・フリブルゴ市の地すべりを自動的に分割するために、U-netという名前の完全な畳み込み深層学習モデルを使用した。
目的は、パッチサイズ、サンプリング方法、データセットがモデル全体の精度に与える影響を評価することである。
論文 参考訳(メタデータ) (2020-07-13T20:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。