論文の概要: Fusarium head blight detection, spikelet estimation, and severity
assessment in wheat using 3D convolutional neural networks
- arxiv url: http://arxiv.org/abs/2303.05634v1
- Date: Fri, 10 Mar 2023 00:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 16:35:01.758645
- Title: Fusarium head blight detection, spikelet estimation, and severity
assessment in wheat using 3D convolutional neural networks
- Title(参考訳): 3次元畳み込みニューラルネットワークを用いたコムギのフサリウム頭部明度検出、スパイクレット推定および重度評価
- Authors: Oumaima Hamila, Christopher J. Henry, Oscar I. Molina, Christopher P.
Bidinosti, and Maria Antonia Henriquez
- Abstract要約: フサリウム・ヘッド・ブライト(FHB)は、小麦やその他の穀物の穀物に影響を及ぼす最も重要な疾患の1つである。
本研究は,コムギに発現するFHB病症状の自動検出,コムギ頭部のスパイクレット数と感染スパイクレット数の自動評価,感染コムギにおけるFHB重症度の自動評価について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fusarium head blight (FHB) is one of the most significant diseases affecting
wheat and other small grain cereals worldwide. The development of resistant
varieties requires the laborious task of field and greenhouse phenotyping. The
applications considered in this work are the automated detection of FHB disease
symptoms expressed on a wheat plant, the automated estimation of the total
number of spikelets and the total number of infected spikelets on a wheat head,
and the automated assessment of the FHB severity in infected wheat. The data
used to generate the results are 3-dimensional (3D) multispectral point clouds
(PC), which are 3D collections of points - each associated with a red, green,
blue (RGB), and near-infrared (NIR) measurement. Over 300 wheat plant images
were collected using a multispectral 3D scanner, and the labelled UW-MRDC 3D
wheat dataset was created. The data was used to develop novel and efficient 3D
convolutional neural network (CNN) models for FHB detection, which achieved
100% accuracy. The influence of the multispectral information on performance
was evaluated, and our results showed the dominance of the RGB channels over
both the NIR and the NIR plus RGB channels combined. Furthermore, novel and
efficient 3D CNNs were created to estimate the total number of spikelets and
the total number of infected spikelets on a wheat head, and our best models
achieved mean absolute errors (MAE) of 1.13 and 1.56, respectively. Moreover,
3D CNN models for FHB severity estimation were created, and our best model
achieved 8.6 MAE. A linear regression analysis between the visual FHB severity
assessment and the FHB severity predicted by our 3D CNN was performed, and the
results showed a significant correlation between the two variables with a
0.0001 P-value and 0.94 R-squared.
- Abstract(参考訳): フサリウム・ヘッド・ブライト(FHB)は、小麦やその他の穀物の穀物に影響を及ぼす最も重要な疾患の1つである。
耐性品種の開発には、フィールドと温室表現の面倒な作業が必要である。
本研究で検討されている応用は、コムギ植物に発現するfhb病症状の自動検出、コムギ頭のスパイクレットの総数と感染したスパイクレットの総数の自動推定、および感染したコムギのfhb重症度の自動評価である。
結果を生成するのに使用されるデータは3次元(3d)多スペクトル点雲(pc)で、それぞれが赤、緑、青(rgb)、近赤外(nir)の測定に関連付けられた3次元の点群である。
マルチスペクトル3Dスキャナーを用いて300以上の小麦の植物画像を収集し,ラベル付きUW-MRDC3D小麦データセットを作成した。
このデータはFHB検出のための新規で効率的な3D畳み込みニューラルネットワーク(CNN)モデルの開発に使われ、100%精度が向上した。
マルチスペクトル情報が性能に与える影響を評価し,nirチャネルとnir+rgbチャネルの両方においてrgbチャネルが支配的であることを示した。
さらに,コムギ頭におけるスパイクレットの総数と感染スパイクレットの総数を推定するために,新規で効率的な3次元CNNを作成し,各モデルの平均絶対誤差(MAE)は1.13と1.56であった。
さらに、FHB重度推定のための3次元CNNモデルを作成し、8.6 MAEを達成した。
3d cnnで予測した視的fhb重症度評価とfhb重症度との線形回帰分析を行い,0.0001p値と0.94r2乗の2変数間に有意な相関が認められた。
関連論文リスト
- Biomass phenotyping of oilseed rape through UAV multi-view oblique imaging with 3DGS and SAM model [18.13908148656987]
本研究は, 油種レイプの正確な3次元再構成とバイオマス推定のために, 3次元ガウススティング(3DGS)とSAM(Segment Anything Model)を統合した。
3DGSは精度が高く、ピーク信号対雑音比(PSNR)は27.43、トレーニング時間は7分49分であった。
SAMモジュールは、結合(mIoU)が0.961、F1スコアが0.980で高いセグメンテーション精度を達成した。
論文 参考訳(メタデータ) (2024-11-13T09:16:21Z) - AlzhiNet: Traversing from 2DCNN to 3DCNN, Towards Early Detection and Diagnosis of Alzheimer's Disease [1.6908255257928966]
2次元畳み込みニューラルネットワーク(2D-CNN)と3次元畳み込みニューラルネットワーク(3D-CNN)を統合した新しいハイブリッドディープラーニングフレームワークを提案する。
我々のフレームワークはKaggleとMIRIADのデータセットから磁気共鳴イメージング(MRI)で検証され、それぞれ98.9%と99.99%、AUCは100%である。
論文 参考訳(メタデータ) (2024-10-03T17:37:18Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Generating high-quality 3DMPCs by adaptive data acquisition and
NeREF-based radiometric calibration with UGV plant phenotyping system [3.7387019397567793]
本研究では, 適応データ取得とラジオメトリックキャリブレーションにより高品質な3DMPCを生産する手法を提案する。
プラント全体のデータの完全性は、固定された視点のみと比較して平均23.6%向上した。
3Dキャリブレーションプラント3DMPCは、クロロフィル含有量のPLSRの予測精度を向上し、R2では平均0.07、RMSEでは平均21.25%向上した。
論文 参考訳(メタデータ) (2023-05-11T12:59:21Z) - Medical Application of Geometric Deep Learning for the Diagnosis of
Glaucoma [60.42955087779866]
シンガポール国立眼科における視神経頭部の3DスキャンをSpectralis OCTで477緑内障と2,296名の非緑内障患者に対して行った。
全巻は、ディープラーニングを用いて自動的にセグメンテーションされ、7つの主要な神経組織と結合組織が識別された。
ポイントネットは、3Dポイントクラウドとして表されるONHのみから頑健な緑内障の診断を行うことができた。
論文 参考訳(メタデータ) (2022-04-14T14:55:25Z) - A Novel Multi-scale Dilated 3D CNN for Epileptic Seizure Prediction [6.688907774518885]
脳波(eeg)信号の時間,周波数,チャネル情報を解析するために,新しい畳み込みニューラルネットワーク(cnn)を提案する。
モデルは3次元(3D)カーネルを使用して、3次元上の特徴抽出を容易にする。
提案されたCNNモデルはCHB-MIT EEGデータベースで評価され,本モデルが既存の最新技術を上回ることを実験的に示した。
論文 参考訳(メタデータ) (2021-05-05T07:13:53Z) - Artificial intelligence for detection and quantification of rust and
leaf miner in coffee crop [0.0]
コーヒーの葉に錆(Hemileia vastatrix)と葉の鉱夫(Leucoptera coffeella)を検出するアルゴリズムを作成します。
モデル推論のための高レベルインタフェースとして,モバイルアプリケーションを用いて病気の重症度を定量化する。
論文 参考訳(メタデータ) (2021-03-20T20:52:11Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - Cephalometric Landmark Regression with Convolutional Neural Networks on
3D Computed Tomography Data [68.8204255655161]
側方X線写真におけるケパロメトリ解析では, 横面への投射による3次元物体の構造を十分に利用していない。
本稿では,3次元畳み込みニューラルネットワーク(CNN)を用いたキーポイント回帰法について述べる。
本研究は,Frankfort Horizontal および cephalometric points の位置推定において,提案手法を広く評価し,その効果を実証した。
論文 参考訳(メタデータ) (2020-07-20T12:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。