論文の概要: Combining Deep Learning and Street View Imagery to Map Smallholder Crop
Types
- arxiv url: http://arxiv.org/abs/2309.05930v2
- Date: Wed, 31 Jan 2024 16:11:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 17:39:15.647530
- Title: Combining Deep Learning and Street View Imagery to Map Smallholder Crop
Types
- Title(参考訳): 深層学習とストリートビューの併用による小規模作物の地図化
- Authors: Jordi Laguarta Soler, Thomas Friedel, Sherrie Wang
- Abstract要約: 深層学習とGoogleストリートビュー画像を用いた作物型土壌参照の自動生成システムを開発した。
タイでは、カッサバ、トウモロコシ、サトウキビの国全体の地図が93%の精度を達成している。
10m解像度でマルチクロップマップが作られたのは、これが初めてだ。
- 参考スコア(独自算出の注目度): 3.2437298521021876
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate crop type maps are an essential source of information for monitoring
yield progress at scale, projecting global crop production, and planning
effective policies. To date, however, crop type maps remain challenging to
create in low and middle-income countries due to a lack of ground truth labels
for training machine learning models. Field surveys are the gold standard in
terms of accuracy but require an often-prohibitively large amount of time,
money, and statistical capacity. In recent years, street-level imagery, such as
Google Street View, KartaView, and Mapillary, has become available around the
world. Such imagery contains rich information about crop types grown at
particular locations and times. In this work, we develop an automated system to
generate crop type ground references using deep learning and Google Street View
imagery. The method efficiently curates a set of street view images containing
crop fields, trains a model to predict crop type by utilizing weakly-labelled
images from disparate out-of-domain sources, and combines predicted labels with
remote sensing time series to create a wall-to-wall crop type map. We show
that, in Thailand, the resulting country-wide map of rice, cassava, maize, and
sugarcane achieves an accuracy of 93%. We publicly release the first-ever crop
type map for all of Thailand 2022 at 10m-resolution with no gaps. To our
knowledge, this is the first time a 10m-resolution, multi-crop map has been
created for any smallholder country. As the availability of roadside imagery
expands, our pipeline provides a way to map crop types at scale around the
globe, especially in underserved smallholder regions.
- Abstract(参考訳): 正確な作物型地図は、大規模生産における収量進捗の監視、地球規模の作物生産の予測、効果的な政策の立案に欠かせない情報源である。
しかしこれまでは、機械学習モデルのトレーニングのための根拠のラベルがないため、低所得国や中所得国では、作物タイプの地図の作成が難しいままだった。
フィールドサーベイは正確性の点では金の標準であるが、時間、お金、統計能力が頻繁に必要である。
近年、Googleストリートビュー、KartaView、Mapillaryなどのストリートレベルの画像が世界中で利用可能になっている。
このような画像には、特定の場所や時代に栽培された作物の種類に関する豊富な情報が含まれている。
本研究では,深層学習とGoogleストリートビュー画像を用いた作物型土壌参照の自動生成システムを開発した。
作物畑を含む一組のストリートビュー画像を効率的にキュレートし、異なる領域外からの弱ラベル画像を利用して作物種を予測し、予測ラベルとリモートセンシング時系列を組み合わせることで、壁から壁までの作物種別地図を作成する。
タイでは,米,キャッサバ,トウモロコシ,サトウキビの全国分布図が93%の精度で得られた。
2022年、タイ全土で最初の作物型地図を10m解像度で公開しました。
私たちの知る限り、スモールホルダーの国で10m解像度のマルチクロップマップが作成されたのはこれが初めてです。
道路沿いの画像が拡大するにつれて、私たちのパイプラインは世界中の作物のタイプを地図化する方法を提供しています。
関連論文リスト
- Statewide Visual Geolocalization in the Wild [25.978498270475747]
本研究では,空中参照画像のデータベースと照合することにより,州規模の検索領域内において野生で撮影されたストリートビュー画像の位置を予測できる手法を提案する。
探索領域を地理的なセルに分割し、セルと対応する画像を、テスト時に検索を行うために使用される共同埋め込み空間にマッピングするモデルを訓練する。
実験により、この方法はマサチューセッツ州のクラウドソーシングプラットフォームMapillaryにアップロードされた全ストリートビュー写真の60.6%を、地道な場所の50m以内にローカライズすることに成功した。
論文 参考訳(メタデータ) (2024-09-25T09:18:19Z) - HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - The Canadian Cropland Dataset: A New Land Cover Dataset for
Multitemporal Deep Learning Classification in Agriculture [0.8602553195689513]
カナディアン・クロップ・インベントリー (Canadian Annual Crop Inventory) から回収されたラベルで濃縮されたカナダの作物の時間的パッチベースのデータセット。
このデータセットは、4年間にわたって収集された10種類の作物から,78,536個の高解像度空間像を手作業で検証した。
ベンチマークとして,単一画像(ResNet,DenseNet,EfficientNet)や画像列(LRCN,3D-CNN)を同一位置から予測可能なモデルとソースコードを提供する。
論文 参考訳(メタデータ) (2023-05-31T18:40:15Z) - Inspecting the Geographical Representativeness of Images from
Text-to-Image Models [52.80961012689933]
本研究では,27カ国540人の参加者からなるクラウドソーシング調査を用いて,生成された画像の地理的代表性を測定した。
国名のない故意に特定されていない入力に対して、生成された画像は、主にアメリカの周囲を反映しており、その後インドが続く。
多くの国でのスコアは依然として低いままで、将来のモデルがより地理的に包括的である必要性を強調している。
論文 参考訳(メタデータ) (2023-05-18T16:08:11Z) - Where We Are and What We're Looking At: Query Based Worldwide Image
Geo-localization Using Hierarchies and Scenes [53.53712888703834]
地理的レベルの異なる関係を利用して、エンドツーエンドのトランスフォーマーベースのアーキテクチャを導入する。
4つの標準ジオローカライゼーションデータセット上で,アートストリートレベルの精度を実現する。
論文 参考訳(メタデータ) (2023-03-07T21:47:58Z) - Saliency Guided Contrastive Learning on Scene Images [71.07412958621052]
我々は、学習中のモデルの出力から導かれるサリエンシマップを活用し、差別的な領域を強調し、対照的な学習全体をガイドする。
提案手法は,画像上の自己教師学習の性能を,画像の線形評価において+1.1,+4.3,+2.2の精度で向上させる。
論文 参考訳(メタデータ) (2023-02-22T15:54:07Z) - Towards Global Crop Maps with Transfer Learning [0.0]
ディープラーニングモデルは、大量の注釈付きデータを必要とします。
本研究では,大韓民国における水稲検出のための深層学習モデルをSentinel-1 VH-1時系列を用いて開発・訓練した。
本手法は,同じ作物の異なる地域での移動において優れた性能を示し,異なる地域での移動において,より有望な結果を示す。
論文 参考訳(メタデータ) (2022-11-09T09:17:42Z) - Using Machine Learning to generate an open-access cropland map from
satellite images time series in the Indian Himalayan Region [0.28675177318965034]
我々は,Sentinel-2衛星画像時系列に依存するMLパイプラインを開発した。
ヒマハル・プラデーシュの3つの地区で14,600 km2の農地マップを作成し、既存の公共地図の解像度と品質を改善した。
論文 参考訳(メタデータ) (2022-03-28T12:08:06Z) - Semi-Supervised Semantic Segmentation in Earth Observation: The
MiniFrance Suite, Dataset Analysis and Multi-task Network Study [82.02173199363571]
我々は,地球観測における半教師付きセマンティックセマンティックセグメンテーションのための新しい大規模データセット,MiniFranceスイートを紹介した。
MiniFranceにはいくつかの前例のない特性があり、2000以上の超高解像度の空中画像を含み、200億枚以上のサンプル(ピクセル)を処理している。
外観の類似性やMiniFranceデータの徹底的な研究からデータ代表性分析のためのツールを提案し,半教師付き環境での学習や一般化に適していることを示す。
論文 参考訳(メタデータ) (2020-10-15T15:36:58Z) - Agriculture-Vision: A Large Aerial Image Database for Agricultural
Pattern Analysis [110.30849704592592]
本稿では,農業パターンのセマンティックセグメンテーションのための大規模空中農地画像データセットであるGarmry-Visionを提案する。
各画像はRGBと近赤外線(NIR)チャンネルで構成され、解像度は1ピクセルあたり10cmである。
農家にとって最も重要な9種類のフィールド異常パターンに注釈を付ける。
論文 参考訳(メタデータ) (2020-01-05T20:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。