論文の概要: Coconut Palm Tree Counting on Drone Images with Deep Object Detection and Synthetic Training Data
- arxiv url: http://arxiv.org/abs/2412.11949v1
- Date: Mon, 16 Dec 2024 16:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:56:39.527391
- Title: Coconut Palm Tree Counting on Drone Images with Deep Object Detection and Synthetic Training Data
- Title(参考訳): 深部物体検出と合成訓練データを用いたドローン画像上のココナッツヤシの木数
- Authors: Tobias Rohe, Barbara Böhm, Michael Kölle, Jonas Stein, Robert Müller, Claudia Linnhoff-Popien,
- Abstract要約: 本研究では、リアルタイム物体検出装置であるYOLOを用いて、ガーナの農業用ドローンの映像からココナッツヤシの木を特定し、数えた。
YOLOを少ないデータで最適化するために、モデルトレーニングと検証のために合成画像が作成された。
- 参考スコア(独自算出の注目度): 5.492715335713603
- License:
- Abstract: Drones have revolutionized various domains, including agriculture. Recent advances in deep learning have propelled among other things object detection in computer vision. This study utilized YOLO, a real-time object detector, to identify and count coconut palm trees in Ghanaian farm drone footage. The farm presented has lost track of its trees due to different planting phases. While manual counting would be very tedious and error-prone, accurately determining the number of trees is crucial for efficient planning and management of agricultural processes, especially for optimizing yields and predicting production. We assessed YOLO for palm detection within a semi-automated framework, evaluated accuracy augmentations, and pondered its potential for farmers. Data was captured in September 2022 via drones. To optimize YOLO with scarce data, synthetic images were created for model training and validation. The YOLOv7 model, pretrained on the COCO dataset (excluding coconut palms), was adapted using tailored data. Trees from footage were repositioned on synthetic images, with testing on distinct authentic images. In our experiments, we adjusted hyperparameters, improving YOLO's mean average precision (mAP). We also tested various altitudes to determine the best drone height. From an initial mAP@.5 of $0.65$, we achieved 0.88, highlighting the value of synthetic images in agricultural scenarios.
- Abstract(参考訳): ドローンは農業を含む様々な領域に革命をもたらした。
近年のディープラーニングの進歩は、コンピュータビジョンにおける物体検出を推進している。
本研究では、リアルタイム物体検出装置であるYOLOを用いて、ガーナの農業用ドローンの映像からココナッツヤシの木を特定し、数えた。
提示された農場は、植林段階が異なるため、樹木の痕跡を失っている。
手動の計数は非常に退屈でエラーを起こしやすいが、正確な木数の決定は農業プロセスの効率的な計画と管理、特に収量最適化と生産予測に不可欠である。
半自動フレームワーク内でのヤシ検出のためのヨロの評価,精度向上の評価,農家への可能性について検討した。
データは2022年9月にドローンで撮影された。
YOLOを少ないデータで最適化するために、モデルトレーニングと検証のために合成画像が作成された。
COCOデータセット(ココナッツヤシを除く)で事前訓練されたYOLOv7モデルは、カスタマイズされたデータを用いて適応された。
映像から得られた木々は合成画像に再配置され、異なる認証画像でテストされた。
実験では、ハイパーパラメータを調整し、平均平均精度(mAP)を改善した。
また、最適なドローンの高さを決定するために、さまざまな高度もテストしました。
0.65ドルの最初のmAP@.5から0.88を達成し、農業シナリオにおける合成画像の価値を強調した。
関連論文リスト
- HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - Comparing Machine Learning Techniques for Alfalfa Biomass Yield
Prediction [0.8808021343665321]
アルファルファの作物は 家畜の餌として 世界的に重要で 効率的な植え付けと収穫は 多くの産業に役立ちます
機械学習を用いてアルファルファやその他の作物の収量を予測する最近の研究は、有望であることが示されている。
これまでの取り組みでは、リモートセンシング、天気、植林、土壌データを使用して、収量予測のための機械学習モデルをトレーニングしていた。
論文 参考訳(メタデータ) (2022-10-20T13:00:33Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards [6.963582954232132]
幾何認識ネットワークであるA3Nは、エンドツーエンドのインスタンスセグメンテーションと把握推定を行うために提案されている。
我々は,フィールド環境下での果実の認識と検索をロボットが正確に行うことができるグローバル・ローカル・スキャン・ストラテジーを実装した。
全体として、ロボットシステムは、収穫実験において70%から85%の範囲で収穫の成功率を達成する。
論文 参考訳(メタデータ) (2021-12-08T16:17:26Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Deep-Learning-based Automated Palm Tree Counting and Geolocation in
Large Farms from Aerial Geotagged Images [1.8782750537161614]
畳み込みニューラルネットワークを用いた空中画像からヤシの木の自動カウントと位置決めのためのフレームワークを提案する。
この目的のために、サウジアラビアのリヤドにあるハルジュ地区のヤシの木農場で、DJIドローンを用いて空中画像を収集した。
論文 参考訳(メタデータ) (2020-05-11T17:11:49Z) - Comparison of object detection methods for crop damage assessment using
deep learning [0.0]
本研究の目的は、コンピュータビジョンと深層学習技術を用いて、空中画像から損傷した作物の面積を検知する概念実証である。
RGBカメラを搭載した無人航空システム(UAS)が画像取得に使用された。
3つの人気の物体検出器(Faster R-CNN, YOLOv2, RetinaNet)は、フィールド内の損傷領域を検出する能力について評価された。
YOLOv2とRetinaNetは、複数の後期季節成長段階にわたって作物の損傷を検出することができた。
論文 参考訳(メタデータ) (2019-12-31T06:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。