論文の概要: Comparison of object detection methods for crop damage assessment using
deep learning
- arxiv url: http://arxiv.org/abs/1912.13199v3
- Date: Wed, 22 Apr 2020 00:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:43:21.681237
- Title: Comparison of object detection methods for crop damage assessment using
deep learning
- Title(参考訳): 深層学習による作物被害評価のための物体検出法の比較
- Authors: Ali HamidiSepehr, Seyed Vahid Mirnezami, Jason K. Ward
- Abstract要約: 本研究の目的は、コンピュータビジョンと深層学習技術を用いて、空中画像から損傷した作物の面積を検知する概念実証である。
RGBカメラを搭載した無人航空システム(UAS)が画像取得に使用された。
3つの人気の物体検出器(Faster R-CNN, YOLOv2, RetinaNet)は、フィールド内の損傷領域を検出する能力について評価された。
YOLOv2とRetinaNetは、複数の後期季節成長段階にわたって作物の損傷を検出することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Severe weather events can cause large financial losses to farmers. Detailed
information on the location and severity of damage will assist farmers,
insurance companies, and disaster response agencies in making wise post-damage
decisions. The goal of this study was a proof-of-concept to detect damaged crop
areas from aerial imagery using computer vision and deep learning techniques. A
specific objective was to compare existing object detection algorithms to
determine which was best suited for crop damage detection. Two modes of crop
damage common in maize (corn) production were simulated: stalk lodging at the
lowest ear and stalk lodging at ground level. Simulated damage was used to
create a training and analysis data set. An unmanned aerial system (UAS)
equipped with a RGB camera was used for image acquisition. Three popular object
detectors (Faster R-CNN, YOLOv2, and RetinaNet) were assessed for their ability
to detect damaged regions in a field. Average precision was used to compare
object detectors. YOLOv2 and RetinaNet were able to detect crop damage across
multiple late-season growth stages. Faster R-CNN was not successful as the
other two advanced detectors. Detecting crop damage at later growth stages was
more difficult for all tested object detectors. Weed pressure in simulated
damage plots and increased target density added additional complexity.
- Abstract(参考訳): 厳しい気象イベントは農夫に大きな損失をもたらす可能性がある。
被害の所在と重大さに関する詳細な情報は、農家、保険会社、災害対応機関が賢明な被害後判断を行うのに役立つだろう。
本研究の目的は、コンピュータビジョンと深層学習技術を用いて、空中画像から損傷した作物の面積を検知する概念実証である。
特定の目的は、既存のオブジェクト検出アルゴリズムを比較して、作物の損傷検出に最適なものを決定することだった。
トウモロコシ(トウモロコシ)生産に共通する作物被害の2つのモードをシミュレートした。
シミュレーションによる損傷は、トレーニングと分析データセットの作成に使用された。
RGBカメラを搭載した無人航空システム(UAS)が画像取得に使用された。
3つの人気の物体検出器(Faster R-CNN, YOLOv2, RetinaNet)がフィールド内の損傷領域を検出する能力について評価された。
平均精度は物体検出器の比較に用いられた。
YOLOv2とRetinaNetは、複数の後期成長段階にわたって作物の損傷を検出することができた。
高速なr-cnnは、他の2つの先進的な検出器ほど成功しなかった。
後の成長段階における作物の損傷の検出は、全ての試験対象検出器にとってより困難であった。
シミュレーションされた損傷プロットの雑草圧力とターゲット密度の増加は、さらなる複雑さを増した。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Cut-and-Paste with Precision: a Content and Perspective-aware Data Augmentation for Road Damage Detection [5.939858158928473]
道路の損傷は、道路インフラの完全性、安全性、耐久性に重大な課題をもたらす可能性がある。
近年、道路監視アプリケーションにおいて、画像に基づく損傷検出のための様々なデータ駆動手法が研究されている。
本稿では、コンテンツ認識(すなわち、画像中の道路の真の位置を考える)と視点認識(すなわち、注入された損傷と対象画像との視点の差を考慮する)の両面から改善されたカット・アンド・ペースト増強手法を提案する。
論文 参考訳(メタデータ) (2024-06-06T09:06:42Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Density Crop-guided Semi-supervised Object Detection in Aerial Images [12.944309759825902]
空中画像における物体検出のための密度作物誘導半監視検出器を提案する。
トレーニング中、ラベル付き画像とラベルなし画像から識別されたクラスタの画像作物を使用してトレーニングセットを増強する。
推論中、検出器は興味のある物体を検出できるが、小さな物体の密度が高い領域も検出できる。
論文 参考訳(メタデータ) (2023-08-09T15:59:42Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - Engineering deep learning methods on automatic detection of damage in
infrastructure due to extreme events [0.38233569758620045]
本稿では,深層学習を用いた極端な事象における自動構造損傷検出(SDD)に関する実験的検討を行った。
最初の研究では、152層のResidual Network(ResNet)を用いて8つのSDDタスクで複数のクラスを分類する。
その結果,損傷検出の精度はセグメンテーションネットワークのみを用いた場合に比べて有意に向上した。
論文 参考訳(メタデータ) (2022-05-01T19:55:56Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Dataset and Performance Comparison of Deep Learning Architectures for
Plum Detection and Robotic Harvesting [3.7692411550925673]
実際のロボット梅収穫システムの昼夜動作中に2つの新しいデータセットが収集される。
これらに対して、現在の世代のディープラーニングオブジェクト検出器をベンチマークする。
深度情報と画像情報を融合する2つの手法が検出器性能に与える影響を検証した。
論文 参考訳(メタデータ) (2021-05-09T04:18:58Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - SyNet: An Ensemble Network for Object Detection in UAV Images [13.198689566654107]
本稿では,マルチステージ方式とシングルステージ方式を組み合わせたアンサンブルネットワークであるSyNetを提案する。
ビルディングブロックとして、センシング戦略とともに、プリトレーニング特徴抽出器を備えたセンタネットおよびカスケードr−cnnを利用する。
提案手法により得られた技術成果を2つの異なるデータセットで報告する。
論文 参考訳(メタデータ) (2020-12-23T21:38:32Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。