論文の概要: AlertTrap: A study on object detection in remote insects trap monitoring
system using on-the-edge deep learning platform
- arxiv url: http://arxiv.org/abs/2112.13341v1
- Date: Sun, 26 Dec 2021 09:44:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:00:23.150414
- Title: AlertTrap: A study on object detection in remote insects trap monitoring
system using on-the-edge deep learning platform
- Title(参考訳): AlertTrap: 最先端ディープラーニングプラットフォームを用いたリモート昆虫トラップ監視システムにおける物体検出に関する研究
- Authors: An D. Le, Duy A. Pham, Dong T. Pham, Hien B. Vo
- Abstract要約: AlertTrapでは、異なる最先端のバックボーン特徴抽出器によるSSDアーキテクチャの実装が、リアルタイム検出問題に対する潜在的な解決策であるように見える。
YOLOv4-tinyは、AP@0.5で1.0でSSDファミリを上回っているが、スループットの速度はわずかに遅い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fruit flies are one of the most harmful insect species to fruit yields. In
AlertTrap, implementation of SSD architecture with different state-of-the-art
backbone feature extractors such as MobileNetV1 and MobileNetV2 appear to be
potential solutions for the real-time detection problem. SSD-MobileNetV1 and
SSD-MobileNetV2 perform well and result in AP@0.5 of 0.957 and 1.0
respectively. YOLOv4-tiny outperforms the SSD family with 1.0 in AP@0.5;
however, its throughput velocity is slightly slower.
- Abstract(参考訳): 果実ハエは果実の収量にとって最も有害な昆虫の1つである。
AlertTrapでは、MobileNetV1やMobileNetV2のような、最先端のバックボーン機能抽出器を備えたSSDアーキテクチャの実装が、リアルタイム検出問題の潜在的な解決策であるように見える。
SSD-MobileNetV1 と SSD-MobileNetV2 はよく動作し、それぞれ 0.957 と 1.0 の AP@0.5 となる。
YOLOv4-tinyは、AP@0.5で1.0でSSDファミリを上回っているが、スループットの速度はわずかに遅い。
関連論文リスト
- Comparing Surface Landmine Object Detection Models on a New Drone Flyby Dataset [0.0]
従来の方法による地雷検出は遅く、危険であり、違法に高価である。
ディープラーニングに基づくオブジェクト検出アルゴリズムを使用することで、ドローンビデオは有望だが、最近普及した地表地雷の小さなソーダ缶サイズのために、複数の課題を抱えている。
この研究は地雷画像、ビデオデータセット、Jupyterノートのモデルに貢献し、地雷検出の今後の研究を可能にしている。
論文 参考訳(メタデータ) (2024-10-17T05:30:00Z) - Monitoring and Adapting ML Models on Mobile Devices [17.28565076128893]
ユーザからのフィードバックを必要とせずに、モバイルデバイス上でモデルを継続的に監視し、適応するための、最初のエンドツーエンドシステムを設計する。
私たちのキーとなる観察は、しばしばモデル劣化は特定の根本原因によるもので、大規模なデバイス群に影響を与える可能性があるということです。
2つのコンピュータビジョンデータセット上でシステム評価を行い、既存のアプローチと比較して精度を継続的に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-12T21:33:26Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - Motion Informed Object Detection of Small Insects in Time-lapse Camera
Recordings [1.3965477771846408]
タイムラプスRGB画像における昆虫検出のためのパイプラインを提案する。
モーション・インフォームド・エンハンスメント(Motion-Informed-Enhancement)技術は、動きと色を使って画像中の昆虫を強化する。
You Only Look Once (YOLO) と Faster Region-based CNN (Faster R-CNN) によるディープラーニング物体検出法の改良
論文 参考訳(メタデータ) (2022-12-01T10:54:06Z) - GhostNetV2: Enhance Cheap Operation with Long-Range Attention [59.65543143580889]
ハードウェアフレンドリーなアテンション機構(DFCアテンション)を提案し,モバイルアプリケーション用の新しいGhostNetV2アーキテクチャを提案する。
提案したDFCアテンションは、ハードウェア上で高速に動作できるだけでなく、長距離画素間の依存を捉えることができる完全接続層に基づいて構築されている。
さらに,従来のGhostNetのボトルネックを再考し,DFCに着目した安価な操作による機能拡張を提案する。
論文 参考訳(メタデータ) (2022-11-23T12:16:59Z) - VSAC: Efficient and Accurate Estimator for H and F [68.65610177368617]
VSACはRANSAC型頑健な推定器であり、多くの新奇性がある。
従来のすべてのプロセッサよりも大幅に高速で、CPU上では平均1-2msで動作する。
現在最も正確な2次元幾何学推定器である MAGSAC++ と同等の精度で2桁高速である。
論文 参考訳(メタデータ) (2021-06-18T17:04:57Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Decoupled Self Attention for Accurate One Stage Object Detection [4.791635488070342]
本稿では,1段階の物体検出モデルに対してデカップリング自己注意(DSA)モジュールを提案する。
DSAモジュールのネットワークは単純だが、オブジェクト検出の性能を効果的に向上させることができるが、多くの検出モデルに組み込むこともできる。
論文 参考訳(メタデータ) (2020-12-14T15:19:30Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators [61.30355783955777]
逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要なビルディングブロックとなっている。
通常の畳み込みは、アクセラレーターにおけるオブジェクト検出の遅延精度トレードオフを高める強力なコンポーネントである。
我々は、モバイルアクセラレーター全体で最先端の成果を得られるオブジェクト検出モデル、MobileDetsのファミリーを得る。
論文 参考訳(メタデータ) (2020-04-30T00:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。