論文の概要: Detection of On-Ground Chestnuts Using Artificial Intelligence Toward Automated Picking
- arxiv url: http://arxiv.org/abs/2602.14140v1
- Date: Sun, 15 Feb 2026 13:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.667317
- Title: Detection of On-Ground Chestnuts Using Artificial Intelligence Toward Automated Picking
- Title(参考訳): 自動ピッキングに向けた人工知能を用いたオングラウンドケストナッツの検出
- Authors: Kaixuan Fang, Yuzhen Lu, Xinyang Mu,
- Abstract要約: 伝統的な機械化された栗の収穫は、小さな生産者にとっては高価すぎる。
オーチャードフロアにおけるクリの正確な検出は、低コストで視覚誘導型自動収穫技術の開発に不可欠である。
本研究は,6524個の注釈付き栗を含む果樹園床の栗の319枚の画像を収集した。
- 参考スコア(独自算出の注目度): 0.09176056742068812
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Traditional mechanized chestnut harvesting is too costly for small producers, non-selective, and prone to damaging nuts. Accurate, reliable detection of chestnuts on the orchard floor is crucial for developing low-cost, vision-guided automated harvesting technology. However, developing a reliable chestnut detection system faces challenges in complex environments with shading, varying natural light conditions, and interference from weeds, fallen leaves, stones, and other foreign on-ground objects, which have remained unaddressed. This study collected 319 images of chestnuts on the orchard floor, containing 6524 annotated chestnuts. A comprehensive set of 29 state-of-the-art real-time object detectors, including 14 in the YOLO (v11-13) and 15 in the RT-DETR (v1-v4) families at varied model scales, was systematically evaluated through replicated modeling experiments for chestnut detection. Experimental results show that the YOLOv12m model achieves the best mAP@0.5 of 95.1% among all the evaluated models, while the RT-DETRv2-R101 was the most accurate variant among RT-DETR models, with mAP@0.5 of 91.1%. In terms of mAP@[0.5:0.95], the YOLOv11x model achieved the best accuracy of 80.1%. All models demonstrate significant potential for real-time chestnut detection, and YOLO models outperformed RT-DETR models in terms of both detection accuracy and inference, making them better suited for on-board deployment. Both the dataset and software programs in this study have been made publicly available at https://github.com/AgFood-Sensing-and-Intelligence-Lab/ChestnutDetection.
- Abstract(参考訳): 伝統的な機械化された栗の収穫は、小さな生産者にとってあまりにも高価であり、非選択的であり、ナッツを傷つける傾向がある。
オーチャードフロアにおけるクリの正確な検出は、低コストで視覚誘導型自動収穫技術の開発に不可欠である。
しかし、信頼できる栗検出システムの開発は、日陰、様々な自然光条件、雑草、落葉、石、その他の外生生物からの干渉など複雑な環境において、未適応のままの課題に直面している。
本研究は,6524個の注釈付き栗を含む果樹園床の栗の319枚の画像を収集した。
モデルスケールの異なるRT-DETR(v1-v4)ファミリーのYOLO(v11-13)と15を含む29の最先端リアルタイム物体検出器の総合的なセットを、クリ検出の再現実験により体系的に評価した。
RT-DETRv2-R101はRT-DETRの中で最も正確な変種であり、mAP@0.5は91.1%である。
mAP@[0.5:0.95]では、YOLOv11xモデルは80.1%の精度を達成した。
全てのモデルはリアルタイムの栗の検出に有意な可能性を示しており、YOLOモデルはRT-DETRモデルよりも検出精度と推論の両方で優れており、車載配置に適している。
この研究のデータセットとソフトウェアプログラムは、https://github.com/AgFood-Sensing-and-Intelligence-Lab/ChestnutDetectionで公開されている。
関連論文リスト
- A Comparative Benchmark of Real-time Detectors for Blueberry Detection towards Precision Orchard Management [2.667064587590596]
本研究では,先進的リアルタイム物体検出器の比較ベンチマーク解析を行った。
このデータセットは、2022-2023シーズンにスマートフォンで収集された671枚の天蓋画像からなる。
YOLOモデルのうち、YOLOv12mはmAP@50の93.3%で最高の精度を達成した。
論文 参考訳(メタデータ) (2025-09-24T21:42:24Z) - From Field to Drone: Domain Drift Tolerant Automated Multi-Species and Damage Plant Semantic Segmentation for Herbicide Trials [1.0483690290582848]
本稿では,植物分類に基づく階層的推論を用いた汎用的自己教師型視覚モデルを提案する。
このモデルでは種同定(F1-score: 0.52 - 0.85, R-squared: 0.75 - 0.98)と損傷分類(F1-score: 0.28 - 0.44, R-squared: 0.71 - 0.87)を大幅に改善した。
現在はBASFの表現型パイプラインにデプロイされており、大規模で自動化された作物や雑草のモニタリングが多様な地理的に可能である。
論文 参考訳(メタデータ) (2025-08-11T00:08:42Z) - WeedVision: Multi-Stage Growth and Classification of Weeds using DETR and RetinaNet for Precision Agriculture [0.0]
本研究は対象検出モデルを用いて174クラスにわたる16種の雑草を同定・分類する。
203,567枚の画像からなる頑健なデータセットを開発した。
RetinaNetは優れた性能を示し、トレーニングセットで0.907、テストセットで0.904の平均平均精度(mAP)を達成した。
論文 参考訳(メタデータ) (2025-02-16T20:49:22Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - Object Detection for Medical Image Analysis: Insights from the RT-DETR Model [40.593685087097995]
本稿では,RT-DETRモデルに基づく複雑な画像データ解析のための新しい検出フレームワークの適用について述べる。
RT-DETRモデルはTransformerベースのアーキテクチャ上に構築され,高次元かつ複雑な視覚データ処理に優れ,堅牢性と精度が向上した。
論文 参考訳(メタデータ) (2025-01-27T20:02:53Z) - Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - CRTRE: Causal Rule Generation with Target Trial Emulation Framework [47.2836994469923]
ターゲットトライアルエミュレーションフレームワーク(CRTRE)を用いた因果ルール生成という新しい手法を提案する。
CRTREは、アソシエーションルールの因果効果を推定するためにランダム化トライアル設計原則を適用している。
次に、病気発症予測などの下流アプリケーションにそのような関連ルールを組み込む。
論文 参考訳(メタデータ) (2024-11-10T02:40:06Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。