論文の概要: Motion Informed Object Detection of Small Insects in Time-lapse Camera
Recordings
- arxiv url: http://arxiv.org/abs/2212.00423v1
- Date: Thu, 1 Dec 2022 10:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:03:22.212196
- Title: Motion Informed Object Detection of Small Insects in Time-lapse Camera
Recordings
- Title(参考訳): タイムラプスカメラ記録における小昆虫の運動情報物体検出
- Authors: Kim Bjerge, Carsten Eie Frigaard and Henrik Karstoft
- Abstract要約: 既存の方法は、自然界の昆虫の映像やタイムラプス画像を分析するが、昆虫は自然植生の複雑なダイナミックな場面で小さな物体であるため、分析は難しい。
本論文は,夏から夏にかけての2ヶ月間に3つの異なる植物種を訪問するミツバチの群集について述べる。
本稿では, タイムラプスRGB画像における昆虫検出のための新しいパイプラインを提案する。
- 参考スコア(独自算出の注目度): 1.3965477771846408
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Insects as pollinators play a key role in ecosystem management and world food
production. However, insect populations are declining, calling for a necessary
global demand of insect monitoring. Existing methods analyze video or
time-lapse images of insects in nature, but the analysis is challenging since
insects are small objects in complex and dynamic scenes of natural vegetation.
The current paper provides a dataset of primary honeybees visiting three
different plant species during two months of summer-period. The dataset
consists of more than 700,000 time-lapse images from multiple cameras,
including more than 100,000 annotated images. The paper presents a new method
pipeline for detecting insects in time-lapse RGB-images. The pipeline consists
of a two-step process. Firstly, the time-lapse RGB-images are preprocessed to
enhance insects in the images. We propose a new prepossessing enhancement
method: Motion-Informed-enhancement. The technique uses motion and colors to
enhance insects in images. The enhanced images are subsequently fed into a
Convolutional Neural network (CNN) object detector. Motion-Informed-enhancement
improves the deep learning object detectors You Only Look Once (YOLO) and
Faster Region-based Convolutional Neural Networks (Faster R-CNN). Using
Motion-Informed-enhancement the YOLO-detector improves average micro F1-score
from 0.49 to 0.71, and the Faster R-CNN-detector improves average micro
F1-score from 0.32 to 0.56 on the our dataset. Our datasets are published on:
https://vision.eng.au.dk/mie/
- Abstract(参考訳): 受粉者としての昆虫は、生態系管理と世界食糧生産において重要な役割を担っている。
しかし、昆虫の個体数は減少しており、昆虫モニタリングの国際的需要が要求されている。
既存の方法は、自然界の昆虫の映像やタイムラプス画像を分析するが、昆虫は自然植生の複雑なダイナミックな場面で小さな物体であるため、分析は難しい。
現在の論文では、夏期の2ヶ月間に3つの異なる植物種を訪れるミツバチのデータセットを提供している。
データセットには、複数のカメラからの70万以上のタイムラプス画像が含まれており、10万以上の注釈付き画像が含まれている。
タイムラプスRGB画像における昆虫検出のための新しいパイプラインを提案する。
パイプラインは2段階のプロセスで構成される。
まず、タイムラプスのRGB画像は、画像中の昆虫を強化するために前処理される。
動作インフォームドエンハンスメント(Motion-Informed-Enhancement)を提案する。
この技術は、動きと色を使って、画像中の昆虫を強化する。
強化された画像はその後、畳み込みニューラルネットワーク(CNN)オブジェクト検出器に送られる。
Motion-Informed-Enhancementは、You Only Look Once (YOLO)とFaster Region-based Convolutional Neural Networks (Faster R-CNN)を改善している。
Motion-Informed-Enhancementを用いて、YOLO-detectorは平均マイクロF1スコアを0.49から0.71に改善し、Faster R-CNN-detectorは平均マイクロF1スコアを0.32から0.56に改善した。
私たちのデータセットは、https://vision.eng.au.dk/mie/
関連論文リスト
- Towards Scalable Insect Monitoring: Ultra-Lightweight CNNs as On-Device Triggers for Insect Camera Traps [0.10713888959520207]
カメラトラップは、自動化されたスケーラブルな生物多様性監視を実現する手段として登場した。
カメラトラップをトリガーする受動赤外線(PIR)センサーは、昆虫のような小型で素早く動く外惑星を検出するには適していない。
本研究は、低消費電力ハードウェア上で動作する超軽量畳み込みニューラルネットワークであるPIRトリガの代替を提案する。
論文 参考訳(メタデータ) (2024-11-18T15:46:39Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Insect-Foundation: A Foundation Model and Large-scale 1M Dataset for Visual Insect Understanding [15.383106771910274]
現在のマシンビジョンモデルは、高性能を達成するために大量のデータを必要とする。
Insect-1M"データセットは,昆虫に関する基礎モデルトレーニングに革命をもたらすことを意図したゲーム変更リソースである。
私たちのデータセットは、昆虫の幅広い範囲をカバーしており、100万枚の画像を含む分類分類階層と昆虫の記載の密度の高い識別ラベルは、昆虫学のパノラマ的なビューを提供する。
論文 参考訳(メタデータ) (2023-11-26T06:17:29Z) - Automated Visual Monitoring of Nocturnal Insects with Light-based Camera
Traps [9.274371635733836]
我々は、中央ヨーロッパで撮影された2つの夜行性昆虫、特にハダカメムシの亜種として、夜行性昆虫のデータセットを提示する。
1つのデータセットであるEU-Mothsデータセットは、市民科学者によって手動で取得され、200種の種アノテーションを含んでいる。
第2のデータセットは、95晩に撮影された27,000枚以上の画像で構成されている。
論文 参考訳(メタデータ) (2023-07-28T09:31:36Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Swarm behavior tracking based on a deep vision algorithm [5.070542698701158]
ビデオ中のマルチアント追跡のための検出・追跡フレームワークを提案する。
本手法は従来の昆虫追跡法に比べて6~10倍高速である。
論文 参考訳(メタデータ) (2022-04-07T09:32:12Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - An Efficient Insect Pest Classification Using Multiple Convolutional
Neural Network Based Models [0.3222802562733786]
昆虫の分類は、様々な種類、スケール、形状、フィールドの複雑な背景、昆虫種間の外観的類似性から難しい課題である。
本研究では、注目、特徴ピラミッド、きめ細かいモデルを含む、さまざまな畳み込みニューラルネットワークベースのモデルを提示する。
実験の結果、これらの畳み込みニューラルネットワークベースのモデルを組み合わせることで、これらの2つのデータセットの最先端の手法よりもパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2021-07-26T12:53:28Z) - Betrayed by Motion: Camouflaged Object Discovery via Motion Segmentation [93.22300146395536]
本研究では,映像中のキャモフラージュされた物体を検出する計算アーキテクチャを設計し,特に物体のセグメンテーションを行うために動作情報を活用する。
最初の大規模な移動カモフラージュ動物(MoCA)ビデオデータセットを収集した。
提案手法の有効性を実証し,動作のみに依存して,DAVIS2016上の教師なしセグメンテーションプロトコル上での競合性能を実現する。
論文 参考訳(メタデータ) (2020-11-23T18:59:08Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。