論文の概要: Identifying Water Stress in Chickpea Plant by Analyzing Progressive
Changes in Shoot Images using Deep Learning
- arxiv url: http://arxiv.org/abs/2104.07911v1
- Date: Fri, 16 Apr 2021 06:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 01:48:21.185584
- Title: Identifying Water Stress in Chickpea Plant by Analyzing Progressive
Changes in Shoot Images using Deep Learning
- Title(参考訳): 深層学習による撮影画像の進行変化解析によるニワトリ植物における水ストレスの同定
- Authors: Shiva Azimi, Rohan Wadhawan, and Tapan K. Gandhi
- Abstract要約: 我々は,視覚的時間パターンを学習し,水ストレスカテゴリーを高い信頼性で予測するLSTM-CNNアーキテクチャを開発した。
提案したモデルは,JG-62ではtextbf98.52%,Pusa-372ではtextbf97.78%の天井レベル分類性能,およびチクピー植物データであった。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To meet the needs of a growing world population, we need to increase the
global agricultural yields by employing modern, precision, and automated
farming methods. In the recent decade, high-throughput plant phenotyping
techniques, which combine non-invasive image analysis and machine learning,
have been successfully applied to identify and quantify plant health and
diseases. However, these image-based machine learning usually do not consider
plant stress's progressive or temporal nature. This time-invariant approach
also requires images showing severe signs of stress to ensure high confidence
detections, thereby reducing this approach's feasibility for early detection
and recovery of plants under stress. In order to overcome the problem mentioned
above, we propose a temporal analysis of the visual changes induced in the
plant due to stress and apply it for the specific case of water stress
identification in Chickpea plant shoot images. For this, we have considered an
image dataset of two chickpea varieties JG-62 and Pusa-372, under three water
stress conditions; control, young seedling, and before flowering, captured over
five months. We then develop an LSTM-CNN architecture to learn visual-temporal
patterns from this dataset and predict the water stress category with high
confidence. To establish a baseline context, we also conduct a comparative
analysis of the CNN architecture used in the proposed model with the other CNN
techniques used for the time-invariant classification of water stress. The
results reveal that our proposed LSTM-CNN model has resulted in the ceiling
level classification performance of \textbf{98.52\%} on JG-62 and
\textbf{97.78\%} on Pusa-372 and the chickpea plant data. Lastly, we perform an
ablation study to determine the LSTM-CNN model's performance on decreasing the
amount of temporal session data used for training.
- Abstract(参考訳): 成長する世界の人口のニーズを満たすためには、近代的で精密で自動化された農業手法を駆使して、世界の農業収量を増やす必要がある。
近年では、非侵襲的な画像解析と機械学習を組み合わせた高スループット植物表現型変換技術が、植物の健康や病気の特定と定量化に成功している。
しかし、これらの画像ベースの機械学習は通常、植物ストレスの進行的または時間的性質を考慮しない。
この時間不変なアプローチでは、強いストレスの兆候を示す画像を高い信頼度で検出する必要があるため、ストレス下の植物を早期に検出し回復するためのこのアプローチの可能性が低下する。
上記の課題を克服するために,ストレスによるプラントの視覚変化の時間的解析を行い,ヒヨコの撮影画像における水ストレス識別の具体例に適用する。
そこで本研究では,水ストレス条件,制御,幼苗,開花前,5ヶ月以上にわたって捕獲された2種類のニワトリJG-62とPusa-372の画像データセットについて検討した。
次に、このデータセットから視覚時間パターンを学習し、高い信頼性で水ストレスカテゴリを予測するLSTM-CNNアーキテクチャを開発する。
ベースライン・コンテキストを確立するために,提案モデルで使用されるCNNアーキテクチャと,水ストレスの時間不変分類に使用される他のCNN手法の比較分析を行った。
その結果, LSTM-CNNモデルでは, JG-62 では \textbf{98.52\%} , Pusa-372 では \textbf{97.78\%} の天井レベル分類性能が得られた。
最後に,LSTM-CNNモデルの性能を訓練に使用する時間的セッションデータの量を減らすためのアブレーション実験を行った。
関連論文リスト
- An Explainable Vision Transformer with Transfer Learning Combined with Support Vector Machine Based Efficient Drought Stress Identification [0.0]
視覚変換器(ViT)は、長距離依存を捉え、複雑な空間関係を捉えるための有望な代替手段を提供する。
航空画像を用いたジャガイモの干ばつストレス検出にViTの力を利用する,説明可能なディープラーニングパイプラインを提案する。
以上の結果から, 提案手法は干ばつストレス同定の精度を高めるだけでなく, 干ばつストレスにかかわる多彩な植物の特徴にも光を当てることが示唆された。
論文 参考訳(メタデータ) (2024-07-31T15:08:26Z) - Explainable Light-Weight Deep Learning Pipeline for Improved Drought Stress Identification [0.0]
作物の干ばつストレスの早期同定は、効果的な緩和対策と収量損失の低減に不可欠である。
本研究は,UAVが自然環境下で捕獲したジャガイモの干ばつストレスを分類するための,新しいディープラーニングフレームワークを提案する。
私たちの研究の重要な革新は、説明可能性のテクニックであるグラディエントクラスの活性化マッピング(Grad-CAM)の統合です。
論文 参考訳(メタデータ) (2024-04-15T18:26:03Z) - PlantPlotGAN: A Physics-Informed Generative Adversarial Network for
Plant Disease Prediction [2.7409168462107347]
リアルな植生指標を持つ合成多スペクトルプロット画像を作成することができる物理インフォームド・ジェネレーティブ・モデルであるPlanetPlotGANを提案する。
その結果, PlantPlotGANから生成された合成画像はFr'echet開始距離に関して最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-27T16:56:28Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms [77.25251419910205]
有害な藻類(HAB)は養殖農場で重大な魚死を引き起こす。
現在、有害藻や他の植物プランクトンを列挙する標準的な方法は、顕微鏡でそれらを手動で観察し数えることである。
合成画像の生成にはGAN(Generative Adversarial Networks)を用いる。
論文 参考訳(メタデータ) (2022-08-03T20:15:55Z) - Automatic Plant Cover Estimation with CNNs Automatic Plant Cover
Estimation with Convolutional Neural Networks [8.361945776819528]
畳み込みニューラルネットワーク(CNN)を用いて画像から関連データを自動抽出する手法について検討する。
我々は、平均絶対誤差5.16%のカスタムCNNを用いて、より高解像度の画像分解能で過去のアプローチより優れていることを発見した。
これらの調査に加えて,植物被覆画像の時間的側面に基づく誤差解析も行った。
論文 参考訳(メタデータ) (2021-06-21T14:52:01Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。