論文の概要: High-Throughput Image-Based Plant Stand Count Estimation Using
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2010.12552v1
- Date: Fri, 23 Oct 2020 17:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:25:26.721922
- Title: High-Throughput Image-Based Plant Stand Count Estimation Using
Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた高速画像ベースプラント数推定
- Authors: Saeed Khaki, Hieu Pham, Ye Han, Wade Kent and Lizhi Wang
- Abstract要約: 早期の表現学的段階における画像ベースコーンスタンド数に対するディープラーニングに基づくアプローチであるDeepStandを提案する。
提案手法はトウモロコシの立ち位置を計測し,他の最先端の方法よりも優れる。
- 参考スコア(独自算出の注目度): 23.67862313758282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The future landscape of modern farming and plant breeding is rapidly changing
due to the complex needs of our society. The explosion of collectable data has
started a revolution in agriculture to the point where innovation must occur.
To a commercial organization, the accurate and efficient collection of
information is necessary to ensure that optimal decisions are made at key
points of the breeding cycle. However, due to the shear size of a breeding
program and current resource limitations, the ability to collect precise data
on individual plants is not possible. In particular, efficient phenotyping of
crops to record its color, shape, chemical properties, disease susceptibility,
etc. is severely limited due to labor requirements and, oftentimes, expert
domain knowledge. In this paper, we propose a deep learning based approach,
named DeepStand, for image-based corn stand counting at early phenological
stages. The proposed method adopts a truncated VGG-16 network as a backbone
feature extractor and merges multiple feature maps with different scales to
make the network robust against scale variation. Our extensive computational
experiments suggest that our proposed method can successfully count corn stands
and out-perform other state-of-the-art methods. It is the goal of our work to
be used by the larger agricultural community as a way to enable high-throughput
phenotyping without the use of extensive time and labor requirements.
- Abstract(参考訳): 現代農業と植物育種の未来は、社会の複雑なニーズによって急速に変化している。
収集可能なデータの爆発は農業に革命を巻き起こし、イノベーションを起こさなければならない。
商業組織では、繁殖サイクルの要点において最適な決定を下すためには、正確かつ効率的な情報の収集が必要である。
しかし、育種プログラムのせん断サイズと現在の資源制限のため、個々の植物について正確なデータを収集することは不可能である。
特に、作物の色、形状、化学的性質、病原性などを記録するための効率的な表現型付けは、労働条件や専門分野の知識によって著しく制限されている。
本稿では,画像ベースのコーンスタンド数を初期表現論的にカウントするdeepstandという深層学習手法を提案する。
提案手法では,vgg-16ネットワークをバックボーン特徴抽出器として採用し,複数の特徴マップを異なるスケールにマージすることで,ネットワークをスケール変動に対して頑健にする。
計算実験の結果,提案手法はコーンスタンドを数えることができ,他の最先端手法よりも優れていたことが示唆された。
広範囲な時間と労働条件を使わずに、高スループット表現を可能にする手段として、大規模農業社会で活用することが目的である。
関連論文リスト
- Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - BonnBeetClouds3D: A Dataset Towards Point Cloud-based Organ-level
Phenotyping of Sugar Beet Plants under Field Conditions [30.27773980916216]
農業生産は今後数十年間、気候変動と持続可能性の必要性によって深刻な課題に直面している。
自律無人航空機(UAV)による作物のモニタリングと、ロボットによる非化学雑草によるフィールド管理の進歩は、これらの課題に対処するのに有用である。
表現型化と呼ばれる植物形質の分析は、植物の育種に不可欠な活動であるが、大量の手作業が伴う。
論文 参考訳(メタデータ) (2023-12-22T14:06:44Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Estimaci\'on de \'areas de cultivo mediante Deep Learning y
programaci\'on convencional [0.0]
エクアドルにおけるサトウキビの栽培・収穫において,最も認知度の高い企業の一つとして検討されてきた。
この戦略はGAN(Generative Adversarial Neural Network)と組み合わせて、サトウキビのプロットの航空写真に基づいて訓練し、人口密度や人口密度の低い作物を識別する。
実験では、空中写真の品質が大幅に向上した。
論文 参考訳(メタデータ) (2022-07-25T16:22:55Z) - An Applied Deep Learning Approach for Estimating Soybean Relative
Maturity from UAV Imagery to Aid Plant Breeding Decisions [7.4022258821325115]
我々は,UAV画像の時系列を用いて,大豆の相対的成熟度を推定するための頑健で自動的なアプローチを開発した。
畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)を組み合わせたエンドツーエンドハイブリッドモデルを提案する。
その結果,CNN-LSTMモデルの有効性を局所回帰法と比較した。
論文 参考訳(メタデータ) (2021-08-02T14:53:58Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - WheatNet: A Lightweight Convolutional Neural Network for High-throughput
Image-based Wheat Head Detection and Counting [12.735055892742647]
本研究では,小麦頭数を正確にかつ効率的に計算し,意思決定のためのリアルタイムデータ収集を支援する新しいディープラーニングフレームワークを提案する。
モデルコムギ網とよばれ,小麦畑の幅広い環境条件において,我々のアプローチが頑健かつ正確であることを実証する。
提案手法は, 小麦頭部計数タスクにおけるMAEとRMSEの3.85と5.19をそれぞれ達成し, 他の最先端手法に比べてパラメータが有意に少ない。
論文 参考訳(メタデータ) (2021-03-17T02:38:58Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - DeepCorn: A Semi-Supervised Deep Learning Method for High-Throughput
Image-Based Corn Kernel Counting and Yield Estimation [20.829106642703277]
本研究では,実時間データの収集を支援するために,フィールド内における実時間コーンカーネルをカウントする新しい深層学習手法を提案する。
DeepCornはトウモロコシの耳の画像中のトウモロコシの核の密度を推定し、推定された密度マップに基づいて核の数を予測する。
提案手法は, コーンカーネルカウントタスクにおいて, 41.36と60.27のMAEとRMSEをそれぞれ達成する。
論文 参考訳(メタデータ) (2020-07-20T23:00:39Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。