論文の概要: Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring
- arxiv url: http://arxiv.org/abs/2304.03610v1
- Date: Fri, 7 Apr 2023 12:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 12:06:42.504768
- Title: Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring
- Title(参考訳): 非破壊的リーフ検出と3次元成長モニタリングのためのトマト植物のサイズ推定
- Authors: Yuning Xing, Dexter Pham, Henry Williams, David Smith, Ho Seok Ahn,
JongYoon Lim, Bruce A. MacDonald, Mahla Nejati
- Abstract要約: 本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
- 参考スコア(独自算出の注目度): 4.303287713669109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart farming is a growing field as technology advances. Plant
characteristics are crucial indicators for monitoring plant growth. Research
has been done to estimate characteristics like leaf area index, leaf disease,
and plant height. However, few methods have been applied to non-destructive
measurements of leaf size. In this paper, an automated non-destructive
imaged-based measuring system is presented, which uses 2D and 3D data obtained
using a Zivid 3D camera, creating 3D virtual representations (digital twins) of
the tomato plants. Leaves are detected from corresponding 2D RGB images and
mapped to their 3D point cloud using the detected leaf masks, which then pass
the leaf point cloud to the plane fitting algorithm to extract the leaf size to
provide data for growth monitoring. The performance of the measurement platform
has been measured through a comprehensive trial on real-world tomato plants
with quantified performance metrics compared to ground truth measurements.
Three tomato leaf and height datasets (including 50+ 3D point cloud files of
tomato plants) were collected and open-sourced in this project. The proposed
leaf size estimation method demonstrates an RMSE value of 4.47mm and an R^2
value of 0.87. The overall measurement system (leaf detection and size
estimation algorithms combine) delivers an RMSE value of 8.13mm and an R^2
value of 0.899.
- Abstract(参考訳): テクノロジーが進歩するにつれて、スマート農業は成長分野だ。
植物の特徴は植物の成長を監視する重要な指標である。
葉面積指数、葉病、植物の高さなどの特性を推定する研究が行われている。
しかし, 葉の大きさを非破壊的に測定する方法はほとんどない。
本稿では、Zivid 3Dカメラを用いて得られた2次元および3次元データを用いて、トマトの3次元仮想表現(デジタル双対)を作成する自動非破壊画像ベース計測システムを提案する。
対応する2D RGB画像から葉を検知し、検出された葉マスクを用いてその3D点雲にマッピングし、葉点雲を平面嵌合アルゴリズムに渡して葉の大きさを抽出し、成長監視用のデータを提供する。
測定プラットフォームの性能は,実世界のトマト植物に関する総合的な試行を通じて測定されてきた。
トマトの葉と高さのデータセット(トマト植物の50以上の3Dポイントクラウドファイルを含む)を3つ集め,オープンソース化した。
提案手法は, RMSE値4.47mm, R^2値0.87を示した。
全体測定システム(リーフ検出とサイズ推定アルゴリズムの組み合わせ)はRMSE値8.13mm、R^2値0.899を提供する。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Early and Accurate Detection of Tomato Leaf Diseases Using TomFormer [0.3169023552218211]
本稿ではトマト葉病検出のためのトランスフォーマーモデルTomFormerを紹介する。
本稿では,視覚変換器と畳み込みニューラルネットワークを組み合わせた融合モデルを用いて,トマト葉病の検出手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T20:47:23Z) - PlantPlotGAN: A Physics-Informed Generative Adversarial Network for
Plant Disease Prediction [2.7409168462107347]
リアルな植生指標を持つ合成多スペクトルプロット画像を作成することができる物理インフォームド・ジェネレーティブ・モデルであるPlanetPlotGANを提案する。
その結果, PlantPlotGANから生成された合成画像はFr'echet開始距離に関して最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-27T16:56:28Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Visual based Tomato Size Measurement System for an Indoor Farming
Environment [3.176607626141415]
本稿では,3つの低コストRGBDカメラから得られた機械学習モデルと深度画像を組み合わせたサイズ計測手法を提案する。
本システムの性能は, 実のトマト果実と偽の葉を用いた実験室環境で評価した。
我々の3カメラシステムは高さ測定精度0.9114、幅精度0.9443を達成できた。
論文 参考訳(メタデータ) (2023-04-12T22:27:05Z) - 3D Reconstruction-Based Seed Counting of Sorghum Panicles for
Agricultural Inspection [4.328589704462156]
本研究では,育種実験における表現型化のための高品質な3Dパニックモデルを作成する方法を提案する。
これは、2Dと3Dの両方のセマンティックランドマークとしてシードを使用する、新しい再構築アプローチによって達成される。
本研究では,この手法を用いて2次元画像から種数と重量を推定し,その外挿量を推定できることを実証した。
論文 参考訳(メタデータ) (2022-11-14T20:51:09Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Geometry-Aware Fruit Grasping Estimation for Robotic Harvesting in
Orchards [6.963582954232132]
幾何認識ネットワークであるA3Nは、エンドツーエンドのインスタンスセグメンテーションと把握推定を行うために提案されている。
我々は,フィールド環境下での果実の認識と検索をロボットが正確に行うことができるグローバル・ローカル・スキャン・ストラテジーを実装した。
全体として、ロボットシステムは、収穫実験において70%から85%の範囲で収穫の成功率を達成する。
論文 参考訳(メタデータ) (2021-12-08T16:17:26Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。