論文の概要: Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring
- arxiv url: http://arxiv.org/abs/2304.03610v1
- Date: Fri, 7 Apr 2023 12:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 12:06:42.504768
- Title: Look how they have grown: Non-destructive Leaf Detection and Size
Estimation of Tomato Plants for 3D Growth Monitoring
- Title(参考訳): 非破壊的リーフ検出と3次元成長モニタリングのためのトマト植物のサイズ推定
- Authors: Yuning Xing, Dexter Pham, Henry Williams, David Smith, Ho Seok Ahn,
JongYoon Lim, Bruce A. MacDonald, Mahla Nejati
- Abstract要約: 本稿では,非破壊画像に基づく自動計測システムについて述べる。
Zividの3Dカメラで得られた2Dと3Dのデータを使って、トマトの3D仮想表現(デジタル双生児)を生成する。
実生トマトの総合的な試験を通じて, プラットフォームの性能を測定した。
- 参考スコア(独自算出の注目度): 4.303287713669109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart farming is a growing field as technology advances. Plant
characteristics are crucial indicators for monitoring plant growth. Research
has been done to estimate characteristics like leaf area index, leaf disease,
and plant height. However, few methods have been applied to non-destructive
measurements of leaf size. In this paper, an automated non-destructive
imaged-based measuring system is presented, which uses 2D and 3D data obtained
using a Zivid 3D camera, creating 3D virtual representations (digital twins) of
the tomato plants. Leaves are detected from corresponding 2D RGB images and
mapped to their 3D point cloud using the detected leaf masks, which then pass
the leaf point cloud to the plane fitting algorithm to extract the leaf size to
provide data for growth monitoring. The performance of the measurement platform
has been measured through a comprehensive trial on real-world tomato plants
with quantified performance metrics compared to ground truth measurements.
Three tomato leaf and height datasets (including 50+ 3D point cloud files of
tomato plants) were collected and open-sourced in this project. The proposed
leaf size estimation method demonstrates an RMSE value of 4.47mm and an R^2
value of 0.87. The overall measurement system (leaf detection and size
estimation algorithms combine) delivers an RMSE value of 8.13mm and an R^2
value of 0.899.
- Abstract(参考訳): テクノロジーが進歩するにつれて、スマート農業は成長分野だ。
植物の特徴は植物の成長を監視する重要な指標である。
葉面積指数、葉病、植物の高さなどの特性を推定する研究が行われている。
しかし, 葉の大きさを非破壊的に測定する方法はほとんどない。
本稿では、Zivid 3Dカメラを用いて得られた2次元および3次元データを用いて、トマトの3次元仮想表現(デジタル双対)を作成する自動非破壊画像ベース計測システムを提案する。
対応する2D RGB画像から葉を検知し、検出された葉マスクを用いてその3D点雲にマッピングし、葉点雲を平面嵌合アルゴリズムに渡して葉の大きさを抽出し、成長監視用のデータを提供する。
測定プラットフォームの性能は,実世界のトマト植物に関する総合的な試行を通じて測定されてきた。
トマトの葉と高さのデータセット(トマト植物の50以上の3Dポイントクラウドファイルを含む)を3つ集め,オープンソース化した。
提案手法は, RMSE値4.47mm, R^2値0.87を示した。
全体測定システム(リーフ検出とサイズ推定アルゴリズムの組み合わせ)はRMSE値8.13mm、R^2値0.899を提供する。
関連論文リスト
- Aggrotech: Leveraging Deep Learning for Sustainable Tomato Disease Management [0.0]
2つの確立された畳み込みニューラルネットワーク(CNN)を用いた深層学習によるトマト葉病検出手法を提案する。
VGG19とインセプションv3モデルはトマトの葉病検出のためにトマトビレッジデータセット(4525画像)に採用されている。
降水層の93.93%の精度は、作物の健康モニタリングに有用であることを示している。
論文 参考訳(メタデータ) (2025-01-21T11:25:44Z) - RoMu4o: A Robotic Manipulation Unit For Orchard Operations Automating Proximal Hyperspectral Leaf Sensing [2.1038216828914145]
葉レベルハイパースペクトル分光法は、表現型化、作物の健康のモニタリング、植物中の必須栄養素の同定、病気や水ストレスの検出に強力なツールであることが示されている。
この研究は、果樹園操作のためのロボット操作ユニットであるRoMu4oを紹介した。
論文 参考訳(メタデータ) (2025-01-18T01:04:02Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Early and Accurate Detection of Tomato Leaf Diseases Using TomFormer [0.3169023552218211]
本稿ではトマト葉病検出のためのトランスフォーマーモデルTomFormerを紹介する。
本稿では,視覚変換器と畳み込みニューラルネットワークを組み合わせた融合モデルを用いて,トマト葉病の検出手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T20:47:23Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Visual based Tomato Size Measurement System for an Indoor Farming
Environment [3.176607626141415]
本稿では,3つの低コストRGBDカメラから得られた機械学習モデルと深度画像を組み合わせたサイズ計測手法を提案する。
本システムの性能は, 実のトマト果実と偽の葉を用いた実験室環境で評価した。
我々の3カメラシステムは高さ測定精度0.9114、幅精度0.9443を達成できた。
論文 参考訳(メタデータ) (2023-04-12T22:27:05Z) - 3D Reconstruction-Based Seed Counting of Sorghum Panicles for
Agricultural Inspection [4.328589704462156]
本研究では,育種実験における表現型化のための高品質な3Dパニックモデルを作成する方法を提案する。
これは、2Dと3Dの両方のセマンティックランドマークとしてシードを使用する、新しい再構築アプローチによって達成される。
本研究では,この手法を用いて2次元画像から種数と重量を推定し,その外挿量を推定できることを実証した。
論文 参考訳(メタデータ) (2022-11-14T20:51:09Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。