論文の概要: Soybean Maturity Prediction using 2D Contour Plots from Drone based Time Series Imagery
- arxiv url: http://arxiv.org/abs/2412.09696v1
- Date: Thu, 12 Dec 2024 19:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:04.259948
- Title: Soybean Maturity Prediction using 2D Contour Plots from Drone based Time Series Imagery
- Title(参考訳): ドローンによる時系列画像からの2次元輪郭プロットを用いた大豆成熟度予測
- Authors: Bitgoeul Kim, Samuel W. Blair, Talukder Z. Jubery, Soumik Sarkar, Arti Singh, Asheesh K. Singh, Baskar Ganapathysubramanian,
- Abstract要約: 植物育種プログラムは、適切な試験において、正確な選択とエントリの配置のために成熟までの日数を評価する必要がある。
伝統的に、育種品種の成熟度評価は、育種者が手動でフィールドを検査し、成熟度を視覚的に評価することを含む。
本研究では,UAVを用いた時系列画像を用いた大豆成熟度評価のための機械学習モデルを開発した。
- 参考スコア(独自算出の注目度): 5.604868960444558
- License:
- Abstract: Plant breeding programs require assessments of days to maturity for accurate selection and placement of entries in appropriate tests. In the early stages of the breeding pipeline, soybean breeding programs assign relative maturity ratings to experimental varieties that indicate their suitable maturity zones. Traditionally, the estimation of maturity value for breeding varieties has involved breeders manually inspecting fields and assessing maturity value visually. This approach relies heavily on rater judgment, making it subjective and time-consuming. This study aimed to develop a machine-learning model for evaluating soybean maturity using UAV-based time-series imagery. Images were captured at three-day intervals, beginning as the earliest varieties started maturing and continuing until the last varieties fully matured. The data collected for this experiment consisted of 22,043 plots collected across three years (2021 to 2023) and represent relative maturity groups 1.6 - 3.9. We utilized contour plot images extracted from the time-series UAV RGB imagery as input for a neural network model. This contour plot approach encoded the temporal and spatial variation within each plot into a single image. A deep learning model was trained to utilize this contour plot to predict maturity ratings. This model significantly improves accuracy and robustness, achieving up to 85% accuracy. We also evaluate the model's accuracy as we reduce the number of time points, quantifying the trade-off between temporal resolution and maturity prediction. The predictive model offers a scalable, objective, and efficient means of assessing crop maturity, enabling phenomics and ML approaches to reduce the reliance on manual inspection and subjective assessment. This approach enables the automatic prediction of relative maturity ratings in a breeding program, saving time and resources.
- Abstract(参考訳): 植物育種プログラムは、適切な試験において、正確な選択とエントリの配置のために成熟までの日数を評価する必要がある。
繁殖パイプラインの初期段階では、ダイズ育種プログラムは、適度な成熟ゾーンを示す実験品種に対して、相対成熟率を割り当てる。
伝統的に、育種品種の成熟度評価は、育種者が手動でフィールドを検査し、成熟度を視覚的に評価することを含む。
このアプローチはレーダの判断に大きく依存しており、主観的かつ時間を要する。
本研究では,UAVを用いた時系列画像を用いた大豆成熟度評価のための機械学習モデルの開発を目的とした。
画像は3日間の間隔で撮影され、最初の品種は成熟し始め、最後の品種が成熟するまで続いた。
この実験で収集されたデータは、3年間(2021年から2023年)に22,043個のプロットから構成され、相対成熟度群1.6~3.9を表す。
時系列UAV RGB画像から抽出した輪郭プロット画像をニューラルネットワークモデルの入力として利用した。
この輪郭プロットアプローチは、各プロット内の時間的および空間的変動を1つの画像に符号化した。
この輪郭計画を利用して成熟度評価を予測するための深層学習モデルを訓練した。
このモデルは精度と堅牢性を大幅に改善し、最大85%の精度を達成する。
また、時間点数を減らし、時間分解能と成熟度予測のトレードオフを定量化することにより、モデルの精度を評価する。
予測モデルは、作物の成熟度を評価するスケーラブルで客観的で効率的な手段を提供し、表現学や機械学習のアプローチにより、手作業による検査や主観的評価への依存を減らすことができる。
このアプローチは、繁殖プログラムにおける相対成熟度評価の自動予測を可能にし、時間と資源を節約する。
関連論文リスト
- Relative Age Estimation Using Face Images [12.30301655447024]
入力画像と参照画像の年齢差を既知年齢で推定するネットワークを用いて、初期推定を精査する。
差分回帰法を用いて, 年齢依存性の顔変化を明示的にモデル化し, 従来の絶対年齢推定よりも精度が向上した。
提案手法は既存の手法を超越し,MORPH IIおよびCACDデータセット上で最先端の精度を実現する。
論文 参考訳(メタデータ) (2025-02-07T11:42:01Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - General vs. Long-Tailed Age Estimation: An Approach to Kill Two Birds
with One Stone [48.849311629912734]
本稿では, GLAE という, シンプルで効果的で柔軟な訓練パラダイムを提案する。
私たちのGLAEはMorph IIを驚くほど改善し、それぞれ1.14年と1.27年で最低のMAEとCMAEに達した。
論文 参考訳(メタデータ) (2023-07-19T16:51:59Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - An Applied Deep Learning Approach for Estimating Soybean Relative
Maturity from UAV Imagery to Aid Plant Breeding Decisions [7.4022258821325115]
我々は,UAV画像の時系列を用いて,大豆の相対的成熟度を推定するための頑健で自動的なアプローチを開発した。
畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)を組み合わせたエンドツーエンドハイブリッドモデルを提案する。
その結果,CNN-LSTMモデルの有効性を局所回帰法と比較した。
論文 参考訳(メタデータ) (2021-08-02T14:53:58Z) - FP-Age: Leveraging Face Parsing Attention for Facial Age Estimation in
the Wild [50.8865921538953]
年齢推定に顔のセマンティクスを明示的に組み込む手法を提案する。
我々は,顔解析に基づくネットワークを設計し,異なるスケールで意味情報を学習する。
提案手法は,既存の年齢推定手法を常に上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-21T14:31:32Z) - Confidence Adaptive Anytime Pixel-Level Recognition [86.75784498879354]
任意の時間推論は、いつでも停止される可能性のある予測の進行を行うモデルを必要とする。
我々は,任意のピクセルレベルの認識に対して,最初の統一とエンドツーエンドのモデルアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-01T20:01:57Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - Hierarchical Attention-based Age Estimation and Bias Estimation [16.335191345543063]
顔画像に基づく年齢推定のための新しい深層学習手法を提案する。
提案手法は,現代的スキームを上回り,新しい最先端の年齢推定精度を提供する。
論文 参考訳(メタデータ) (2021-03-17T19:41:34Z) - Deep Multi-view Image Fusion for Soybean Yield Estimation in Breeding
Applications Deep Multi-view Image Fusion for Soybean Yield Estimation in
Breeding Applications [7.450586438835518]
本研究の目的は,ダイズポッドカウントに適応する機械学習(ML)アプローチを開発することである。
ディープラーニングアーキテクチャを用いた多視点画像に基づく収量推定フレームワークを開発した。
以上の結果から,MLモデルが時間と労力を大幅に削減して繁殖決定を下すことが示唆された。
論文 参考訳(メタデータ) (2020-11-13T20:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。