論文の概要: End-to-end deep learning for directly estimating grape yield from
ground-based imagery
- arxiv url: http://arxiv.org/abs/2208.02394v1
- Date: Thu, 4 Aug 2022 01:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:35:41.534623
- Title: End-to-end deep learning for directly estimating grape yield from
ground-based imagery
- Title(参考訳): 地表面画像からのブドウ収量の直接推定のためのエンドツーエンド深度学習
- Authors: Alexander G. Olenskyj, Brent S. Sams, Zhenghao Fei, Vishal Singh,
Pranav V. Raja, Gail M. Bornhorst, J. Mason Earles
- Abstract要約: 本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
- 参考スコア(独自算出の注目度): 53.086864957064876
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Yield estimation is a powerful tool in vineyard management, as it allows
growers to fine-tune practices to optimize yield and quality. However, yield
estimation is currently performed using manual sampling, which is
time-consuming and imprecise. This study demonstrates the application of
proximal imaging combined with deep learning for yield estimation in vineyards.
Continuous data collection using a vehicle-mounted sensing kit combined with
collection of ground truth yield data at harvest using a commercial yield
monitor allowed for the generation of a large dataset of 23,581 yield points
and 107,933 images. Moreover, this study was conducted in a mechanically
managed commercial vineyard, representing a challenging environment for image
analysis but a common set of conditions in the California Central Valley. Three
model architectures were tested: object detection, CNN regression, and
transformer models. The object detection model was trained on hand-labeled
images to localize grape bunches, and either bunch count or pixel area was
summed to correlate with grape yield. Conversely, regression models were
trained end-to-end to predict grape yield from image data without the need for
hand labeling. Results demonstrated that both a transformer as well as the
object detection model with pixel area processing performed comparably, with a
mean absolute percent error of 18% and 18.5%, respectively on a representative
holdout dataset. Saliency mapping was used to demonstrate the attention of the
CNN model was localized near the predicted location of grape bunches, as well
as on the top of the grapevine canopy. Overall, the study showed the
applicability of proximal imaging and deep learning for prediction of grapevine
yield on a large scale. Additionally, the end-to-end modeling approach was able
to perform comparably to the object detection approach while eliminating the
need for hand-labeling.
- Abstract(参考訳): 収量推定はブドウ園の管理において強力なツールであり、栽培者が収量と品質を最適化するための微調整の実践を可能にする。
しかし、現在、利得推定は、時間と不正確である手動サンプリングを用いて行われている。
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
車両搭載センシングキットと接地真理の収集を組み合わせた連続データ収集は、収穫時に23,581点と107,933点の大規模なデータセットを生成することができる商用収量モニタを用いて得られる。
さらに, 機械的に管理された商業用ブドウ園において, 画像解析の難しい環境であるが, カリフォルニア・セントラル・バレーでは共通の条件を表わした。
オブジェクト検出、CNN回帰、トランスフォーマーモデルの3つのモデルアーキテクチャがテストされた。
対象検出モデルは,手書き画像を用いてブドウ束のローカライズを訓練し,束数または画素面積を合計してブドウ収量と相関させた。
逆に回帰モデルは、画像データからブドウ収量を予測するために、手ラベルを必要とせずにエンドツーエンドで訓練された。
その結果、変圧器と画素領域処理による物体検出モデルは、それぞれ18%と18.5%の平均絶対誤差で比較可能であった。
CNNモデルの注目度マッピングは、ブドウの群れの予測された位置と、ブドウの天蓋の上部付近に局在していることを示すために用いられた。
その結果,大規模ブドウ収量予測のための近位画像と深層学習の適用性が示唆された。
さらに、エンドツーエンドのモデリングアプローチは、ハンドラベルの必要性をなくしながら、オブジェクト検出アプローチと互換性を持たせることができた。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Integrating processed-based models and machine learning for crop yield
prediction [1.3107669223114085]
本研究では,ハイブリッドメタモデリング手法を用いてジャガイモ収量予測を行う。
作物成長モデルを用いて、畳み込みニューラルネットを(前)訓練するための合成データを生成する。
シリコンに適用すると、我々のメタモデリング手法は、純粋にデータ駆動のアプローチからなるベースラインよりも優れた予測が得られる。
論文 参考訳(メタデータ) (2023-07-25T12:51:25Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Generative models-based data labeling for deep networks regression:
application to seed maturity estimation from UAV multispectral images [3.6868861317674524]
種子の成熟度モニタリングは、気候変動とより制限的な慣行による農業における課題の増加である。
従来の手法は、フィールドでの限られたサンプリングと実験室での分析に基づいている。
マルチスペクトルUAV画像を用いたパセリ種子の成熟度推定手法の提案と,自動ラベリングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-09T09:06:51Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Monitoring crop phenology with street-level imagery using computer
vision [0.0]
コンピュータビジョンを用いて,道路画像から作物の種類や表現的情報を収集・抽出する枠組みを提案する。
2018年の成長期には、オランダのフレヴォラント州で、横向きのアクションカメラで高解像度の写真が撮影された。
論文 参考訳(メタデータ) (2021-12-16T20:36:45Z) - Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection [0.0]
本稿では,合成3次元作物モデルドメインから実世界の作物ドメインへの農業画像生成手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ブドウ品種検出タスクにおける増分訓練実験により,本手法から生成した画像がドメインプロセスを大幅に高速化できることが判明した。
論文 参考訳(メタデータ) (2021-08-30T16:11:59Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。