論文の概要: High-Throughput Phenotyping using Computer Vision and Machine Learning
- arxiv url: http://arxiv.org/abs/2407.06354v2
- Date: Wed, 10 Jul 2024 02:28:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 11:41:07.310838
- Title: High-Throughput Phenotyping using Computer Vision and Machine Learning
- Title(参考訳): コンピュータビジョンと機械学習を用いた高速フェノタイピング
- Authors: Vivaan Singhvi, Langalibalele Lunga, Pragya Nidhi, Chris Keum, Varrun Prakash,
- Abstract要約: 我々はオークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と白ラベルで治療を行った。
光文字認識(OCR)は、植物上でこれらのラベルを読むために用いられた。
機械学習モデルを用いて,これらの分類に基づいて処理を予測し,解析されたEXIFタグを用いて葉の大きさと表現型間の相関を見いだした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-throughput phenotyping refers to the non-destructive and efficient evaluation of plant phenotypes. In recent years, it has been coupled with machine learning in order to improve the process of phenotyping plants by increasing efficiency in handling large datasets and developing methods for the extraction of specific traits. Previous studies have developed methods to advance these challenges through the application of deep neural networks in tandem with automated cameras; however, the datasets being studied often excluded physical labels. In this study, we used a dataset provided by Oak Ridge National Laboratory with 1,672 images of Populus Trichocarpa with white labels displaying treatment (control or drought), block, row, position, and genotype. Optical character recognition (OCR) was used to read these labels on the plants, image segmentation techniques in conjunction with machine learning algorithms were used for morphological classifications, machine learning models were used to predict treatment based on those classifications, and analyzed encoded EXIF tags were used for the purpose of finding leaf size and correlations between phenotypes. We found that our OCR model had an accuracy of 94.31% for non-null text extractions, allowing for the information to be accurately placed in a spreadsheet. Our classification models identified leaf shape, color, and level of brown splotches with an average accuracy of 62.82%, and plant treatment with an accuracy of 60.08%. Finally, we identified a few crucial pieces of information absent from the EXIF tags that prevented the assessment of the leaf size. There was also missing information that prevented the assessment of correlations between phenotypes and conditions. However, future studies could improve upon this to allow for the assessment of these features.
- Abstract(参考訳): 高スループット表現型は、植物表現型の非破壊的で効率的な評価である。
近年、大規模データセットの処理効率を高め、特定の形質を抽出する手法を開発することで、植物を表現型化するプロセスを改善するために機械学習と結合されている。
従来の研究では、ディープニューラルネットワークを自動カメラでタンデムに応用することで、これらの課題を前進させる方法が開発されてきたが、研究されているデータセットはしばしば物理的なラベルを除外している。
本研究では,オークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と,処理(制御や干ばつ),ブロック,行,位置,遺伝子型を示す白いラベルを用いたデータセットを用いた。
光文字認識(OCR)は植物上でこれらのラベルを読み取るのに用いられ、機械学習アルゴリズムと併用した画像分割技術は形態分類に使われ、機械学習モデルはそれらの分類に基づいて治療を予測するために用いられ、解析されたEXIFタグは葉の大きさと表現型間の相関を見出すために使用された。
我々のOCRモデルは、非ヌルテキスト抽出に対して94.31%の精度を持ち、情報をスプレッドシートに正確に配置できることがわかった。
分類モデルでは, 葉の形状, 色, 褐色の斑点が62.82%, 植物処理が60.08%であった。
最後に,葉の大きさを評価するのを妨げたEXIFタグから欠落したいくつかの重要な情報を同定した。
表現型と条件の相関性の評価を阻害する情報も欠落していた。
しかし、今後の研究はこれらの特徴を評価するために改善される可能性がある。
関連論文リスト
- Small data deep learning methodology for in-field disease detection [6.2747249113031325]
本稿では,ポテト作物の遅発症状を軽度に検出できる最初の機械学習モデルを提案する。
提案手法は, 焦点損失関数を持つ深部畳み込みニューラルネットワークをベースとした, パッチ方式による高分解能画像の高精細化を実現する。
本モデルでは, 早期症状の同定に高い精度と有効性を示した。
論文 参考訳(メタデータ) (2024-09-25T17:31:17Z) - Evaluating Data Augmentation Techniques for Coffee Leaf Disease
Classification [2.0892083471064407]
本稿では,RoCoLeデータセットを用いて,深層学習による画像からのコーヒー葉病の分類を行う。
本研究は, トランスフォーマーモデル, オンライン強化, およびCycleGAN増強が葉病分類の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-01-11T09:22:36Z) - Few-Shot Learning Enables Population-Scale Analysis of Leaf Traits in
Populus trichocarpa [1.9089478605920305]
この研究は、(i)最小のトレーニングデータを必要とする高速で正確な画像ベースの特徴抽出のための方法と、(ii)68種類の葉の表現型を含む新しい集団規模のデータセットを、ドメイン科学者や機械学習研究者向けに植物表現型コミュニティに提供するように設計されている。
数発の学習コード、データ、結果はすべて公開されています。
論文 参考訳(メタデータ) (2023-01-24T23:40:01Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Data-Driven Deep Supervision for Skin Lesion Classification [36.24996525103533]
本稿では,ロバストな特徴抽出のために入力データを利用する新しいディープニューラルネットワークを提案する。
具体的には、畳み込みネットワークの挙動(視野)を分析し、深い監視の場所を見つける。
論文 参考訳(メタデータ) (2022-09-04T03:57:08Z) - DeepTechnome: Mitigating Unknown Bias in Deep Learning Based Assessment
of CT Images [44.62475518267084]
私たちは、未知のバイアスに対するトレーニング中にディープラーニングモデルをデバイアスします。
制御領域は、バイアスに関する情報を伝達する代理として使用します。
強いバイアスを示すデータから学習する手法を応用し、対応する偏りのないデータを用いたトレーニングで観測された分類性能をほぼ完全に回復する。
論文 参考訳(メタデータ) (2022-05-26T12:18:48Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - An Effective Leaf Recognition Using Convolutional Neural Networks Based
Features [1.137457877869062]
本稿では,葉の認識に有効な手法を提案する。
葉はいくつかの前処理を経て、精製された色画像、静脈像、xy投影ヒストグラム、手作りの形状、テクスチャの特徴、フーリエディスクリプタを抽出する。
これらの属性は、サポートベクターマシン(SVM)モデルを使用して異なる葉を分類する前に、ニューラルネットワークベースのエンコーダによってより良い表現に変換される。
論文 参考訳(メタデータ) (2021-08-04T02:02:22Z) - Leaf Image-based Plant Disease Identification using Color and Texture
Features [0.1657441317977376]
自己収集されたデータセットの精度は、病気の識別に82.47%、健康と疾患の分類に91.40%である。
このプロトタイプシステムは、より多くの病種を追加したり、特定の作物や病種をターゲットにすることで拡張することができる。
論文 参考訳(メタデータ) (2021-02-08T20:32:56Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。