論文の概要: Monitoring crop phenology with street-level imagery using computer
vision
- arxiv url: http://arxiv.org/abs/2112.09190v1
- Date: Thu, 16 Dec 2021 20:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 04:59:59.250751
- Title: Monitoring crop phenology with street-level imagery using computer
vision
- Title(参考訳): コンピュータビジョンを用いた街頭画像を用いた作物表現のモニタリング
- Authors: Rapha\"el d'Andrimont, Momchil Yordanov, Laura Martinez-Sanchez,
Marijn van der Velde
- Abstract要約: コンピュータビジョンを用いて,道路画像から作物の種類や表現的情報を収集・抽出する枠組みを提案する。
2018年の成長期には、オランダのフレヴォラント州で、横向きのアクションカメラで高解像度の写真が撮影された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Street-level imagery holds a significant potential to scale-up in-situ data
collection. This is enabled by combining the use of cheap high quality cameras
with recent advances in deep learning compute solutions to derive relevant
thematic information. We present a framework to collect and extract crop type
and phenological information from street level imagery using computer vision.
During the 2018 growing season, high definition pictures were captured with
side-looking action cameras in the Flevoland province of the Netherlands. Each
month from March to October, a fixed 200-km route was surveyed collecting one
picture per second resulting in a total of 400,000 geo-tagged pictures. At 220
specific parcel locations detailed on the spot crop phenology observations were
recorded for 17 crop types. Furthermore, the time span included specific
pre-emergence parcel stages, such as differently cultivated bare soil for
spring and summer crops as well as post-harvest cultivation practices, e.g.
green manuring and catch crops. Classification was done using TensorFlow with a
well-known image recognition model, based on transfer learning with
convolutional neural networks (MobileNet). A hypertuning methodology was
developed to obtain the best performing model among 160 models. This best model
was applied on an independent inference set discriminating crop type with a
Macro F1 score of 88.1% and main phenological stage at 86.9% at the parcel
level. Potential and caveats of the approach along with practical
considerations for implementation and improvement are discussed. The proposed
framework speeds up high quality in-situ data collection and suggests avenues
for massive data collection via automated classification using computer vision.
- Abstract(参考訳): ストリートレベルの画像は、その場でのデータの収集をスケールアップする大きな可能性を秘めている。
これは、安価な高品質カメラと、関連するテーマ情報を引き出すディープラーニング計算ソリューションの最近の進歩を組み合わせることで実現されている。
本稿では,街頭画像から作物の種類と表現情報をコンピュータビジョンを用いて収集し抽出する枠組みを提案する。
2018年の成長期には、オランダのフレヴォラント州で横向きのアクションカメラで高解像度の写真が撮影された。
3月から10月までの毎月、固定された200kmのルートが1秒間に1枚の写真を集め、合計40万枚のジオタグが付けられた。
17種類の作物について, 斑点植物学の観察を詳述した220の特定の小包の位置を記録した。
さらに,この時期は,春や夏の農作物の異なる耕作原土壌や,グリーンマリングや捕鯨作物などの収穫後の栽培慣行など,特定の未熟期のパーセルステージを含んでいた。
分類は、畳み込みニューラルネットワーク(MobileNet)を用いた転送学習に基づいて、よく知られた画像認識モデルでTensorFlowを使用して行われた。
160モデル中最高のパフォーマンスモデルを得るためにハイパーチューニング手法が開発された。
この最良のモデルは、マクロF1スコア88.1%、主表現学的ステージ86.9%の農作物を識別する独立推論セットに適用された。
実装と改善に関する実践的考察とともに,アプローチの可能性と注意点について論じる。
提案フレームワークは高品質なデータ収集を高速化し,コンピュータビジョンを用いた自動分類による大規模データ収集への道筋を示唆する。
関連論文リスト
- Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection [0.0]
本稿では,合成3次元作物モデルドメインから実世界の作物ドメインへの農業画像生成手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ブドウ品種検出タスクにおける増分訓練実験により,本手法から生成した画像がドメインプロセスを大幅に高速化できることが判明した。
論文 参考訳(メタデータ) (2021-08-30T16:11:59Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Fruit Quality and Defect Image Classification with Conditional GAN Data
Augmentation [2.6424021470496672]
微調整、トランスファーラーニング、ジェネレーションモデルに基づくトレーニングデータ拡張というアイデアを組み合わせた機械学習パイプラインを提案します。
畳み込み層に完全に接続された4096個のニューロンを付加すると、83.77%の画像分類精度が得られる。
そして,2000エポックの訓練データに基づいて条件付き生成型adversarial networkを訓練し,比較的現実的な画像を生成することを学ぶ。
論文 参考訳(メタデータ) (2021-04-12T17:13:05Z) - A New Mask R-CNN Based Method for Improved Landslide Detection [54.7905160534631]
本稿では,Mask R-CNN機能を利用した地すべり検出手法を提案する。
地すべり及び非地すべり画像を含む160個の要素からなるデータセットを作成する。
提案アルゴリズムは丘陵地帯の土地利用計画立案者や政策立案者にとって潜在的に有用である。
論文 参考訳(メタデータ) (2020-10-04T07:46:37Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。