論文の概要: Enhancing Pollinator Conservation towards Agriculture 4.0: Monitoring of Bees through Object Recognition
- arxiv url: http://arxiv.org/abs/2405.15428v1
- Date: Fri, 24 May 2024 10:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 14:52:03.844119
- Title: Enhancing Pollinator Conservation towards Agriculture 4.0: Monitoring of Bees through Object Recognition
- Title(参考訳): ポリネーターの農業への取り組み 4.0: 物体認識によるハチのモニタリング
- Authors: Ajay John Alex, Chloe M. Barnes, Pedro Machado, Isibor Ihianle, Gábor Markó, Martin Bencsik, Jordan J. Bird,
- Abstract要約: 本稿では,ハチの行動の自律的追跡・報告にコンピュータビジョンと物体認識を用いる方法について検討する。
ビデオストリームから蜂を含む9664画像の新しいデータセットを抽出し、バウンディングボックスで注釈付けする。
トレーニングされたモデルは、説明可能なAIインターフェース内にパッケージされ、検出イベントをタイムスタンプされたレポートとチャートに変換する。
- 参考スコア(独自算出の注目度): 0.6334523276812193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an era of rapid climate change and its adverse effects on food production, technological intervention to monitor pollinator conservation is of paramount importance for environmental monitoring and conservation for global food security. The survival of the human species depends on the conservation of pollinators. This article explores the use of Computer Vision and Object Recognition to autonomously track and report bee behaviour from images. A novel dataset of 9664 images containing bees is extracted from video streams and annotated with bounding boxes. With training, validation and testing sets (6722, 1915, and 997 images, respectively), the results of the COCO-based YOLO model fine-tuning approaches show that YOLOv5m is the most effective approach in terms of recognition accuracy. However, YOLOv5s was shown to be the most optimal for real-time bee detection with an average processing and inference time of 5.1ms per video frame at the cost of slightly lower ability. The trained model is then packaged within an explainable AI interface, which converts detection events into timestamped reports and charts, with the aim of facilitating use by non-technical users such as expert stakeholders from the apiculture industry towards informing responsible consumption and production.
- Abstract(参考訳): 急速な気候変動と食糧生産に対する悪影響の時代には、受粉者の保全を監視するための技術介入は、地球規模の食料安全保障のための環境監視と保全にとって最重要課題である。
人類の生存は、受粉者の保護に依存している。
本稿では,ハチの行動の自律的追跡・報告にコンピュータビジョンと物体認識を用いる方法について検討する。
ビデオストリームから蜂を含む9664画像の新しいデータセットを抽出し、バウンディングボックスで注釈付けする。
トレーニング, 検証, テストセット (6722, 1915, 997 画像) を用いて, COCO をベースとした YOLO モデルファインチューニング手法の結果から, YOLOv5m が認識精度の面で最も効果的なアプローチであることが示された。
しかし、YOLOv5sは平均処理時間5.1msの動画フレームでリアルタイム蜂検出に最適であることが判明した。
トレーニングされたモデルは、説明可能なAIインターフェース内にパッケージされ、検出イベントをタイムスタンプ付きレポートやチャートに変換する。
関連論文リスト
- AI-Driven Real-Time Monitoring of Ground-Nesting Birds: A Case Study on Curlew Detection Using YOLOv10 [0.07255608805275862]
本研究は,カリュー(Numenius arquata)に着目したAIによるリアルタイム種検出手法を提案する。
カスタムトレーニングされたYOLOv10モデルは、Create AIプラットフォームにリンクされた3/4G対応カメラを使用して、カリューとそのニワトリを検知し、分類するために開発された。
ウェールズの11箇所で、このモデルは高い性能を達成し、感度は90.56%、特異度は100%、F1スコアは95.05%だった。
論文 参考訳(メタデータ) (2024-11-22T10:36:29Z) - Towards Context-Rich Automated Biodiversity Assessments: Deriving AI-Powered Insights from Camera Trap Data [0.06819010383838325]
カメラトラップは生態研究において大きな新しい機会を提供する。
現在の自動画像解析手法は、影響のある保存結果をサポートするために必要な文脈的豊かさを欠いていることが多い。
本稿では、深層学習に基づく視覚と言語モデルを組み合わせて、カメラトラップのデータを用いた生態報告を改善するための統合的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-21T15:28:52Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Removing Human Bottlenecks in Bird Classification Using Camera Trap
Images and Deep Learning [0.14746127876003345]
鳥類の個体数を監視することは生態学者にとって不可欠である。
カメラトラップ、音響モニター、ドローンなどの技術は、非侵襲的な監視方法を提供する。
監視にカメラトラップを使用する場合の主な問題は2つある。a) カメラは多くの画像を生成し、タイムリーにデータを処理し分析することが困難になる。
本稿では,鳥種のリアルタイム分類にディープラーニングを活用することによって,これらの問題を克服するためのアプローチを概説する。
論文 参考訳(メタデータ) (2023-05-03T13:04:39Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision
for Precision Pollination [6.2997667081978825]
昆虫は作物の最も重要な世界的な受粉者であり、自然生態系の持続可能性を維持する上で重要な役割を担っている。
現在のコンピュータビジョンは、複雑な屋外環境における昆虫追跡を空間的に制限している。
本稿では,昆虫数計測,昆虫の動き追跡,行動解析,受粉予測のためのマーカーレスデータキャプチャーシステムを紹介する。
論文 参考訳(メタデータ) (2022-05-10T05:11:28Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Unifying data for fine-grained visual species classification [15.14767769034929]
465種にまたがる2.9M画像に基づいて訓練した,初期の深部畳み込みニューラルネットワークモデルを提案する。
長期的な目標は、科学者が種数と人口の健康状態のほぼリアルタイムでの分析から、保護的なレコメンデーションを行うことである。
論文 参考訳(メタデータ) (2020-09-24T01:04:18Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。