論文の概要: POLO -- Point-based, multi-class animal detection
- arxiv url: http://arxiv.org/abs/2410.11741v1
- Date: Tue, 15 Oct 2024 16:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:05.393089
- Title: POLO -- Point-based, multi-class animal detection
- Title(参考訳): POLO --point-based, multi-class animal detection
- Authors: Giacomo May, Emanuele Dalsasso, Benjamin Kellenberger, Devis Tuia,
- Abstract要約: POLOは多クラスオブジェクト検出モデルであり、ポイントラベルで完全にトレーニングすることができる。
POLOは、空中画像中の動物を数える際の精度を向上させる。
- 参考スコア(独自算出の注目度): 4.572449721501902
- License:
- Abstract: Automated wildlife surveys based on drone imagery and object detection technology are a powerful and increasingly popular tool in conservation biology. Most detectors require training images with annotated bounding boxes, which are tedious, expensive, and not always unambiguous to create. To reduce the annotation load associated with this practice, we develop POLO, a multi-class object detection model that can be trained entirely on point labels. POLO is based on simple, yet effective modifications to the YOLOv8 architecture, including alterations to the prediction process, training losses, and post-processing. We test POLO on drone recordings of waterfowl containing up to multiple thousands of individual birds in one image and compare it to a regular YOLOv8. Our experiments show that at the same annotation cost, POLO achieves improved accuracy in counting animals in aerial imagery.
- Abstract(参考訳): ドローン画像と物体検出技術に基づく野生生物の自動調査は、保護生物学において強力で人気の高いツールである。
ほとんどの検出器は、注釈付きバウンディングボックスを持つ訓練用画像を必要とするが、それは退屈で高価で、作成には必ずしも曖昧ではない。
このプラクティスに関連するアノテーションの負荷を軽減するために,ポイントラベルで完全にトレーニング可能な多クラスオブジェクト検出モデルPOLOを開発した。
POLOは、予測プロセスの変更、トレーニング損失、後処理など、シンプルで効果的なYOLOv8アーキテクチャの変更に基づいている。
我々は、最大数千羽の鳥を1枚の画像に収めた水鳥のドローン記録でPOLOをテストし、通常のYOLOv8と比較した。
以上の結果から,POLOは動物を航空画像にカウントする際の精度の向上を図っている。
関連論文リスト
- Multi-Species Object Detection in Drone Imagery for Population Monitoring of Endangered Animals [0.0]
本研究は,動物種を正確に数えるために,ドローン画像の微調整対象検出モデルに焦点を当てた。
私たちは30の異なるモデルをトレーニングし、最大のモデルは4370万のパラメータと365のレイヤを持っていた。
我々はこれらのモデルをJetson Orin Nano上に展開し、ドローンで容易に推測できる低消費電力リアルタイム種検出のデモを行った。
論文 参考訳(メタデータ) (2024-06-28T03:03:55Z) - Designing A Sustainable Marine Debris Clean-up Framework without Human Labels [0.0]
海洋の破片は、鳥類、魚、その他の動物の生命に重大な生態学的脅威をもたらす。
伝統的に残骸の堆積を評価する方法には、労働集約的かつ高価な手作業による調査が含まれる。
本研究では,ドローンが捉えた空中画像を利用して遠隔地ゴミ調査を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:28:23Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Weakly Supervised Faster-RCNN+FPN to classify animals in camera trap
images [0.0]
カメラトラップは、生息地や行動のためにこれまで観測できなかった多くの種の動物研究に革命をもたらした。
ディープラーニングは、分類や空のイメージに従って画像分類を自動化するために、ワークロードを克服する可能性がある。
Weakly Object Detection Faster-RCNN+FPNというワークフローを提案する。
論文 参考訳(メタデータ) (2022-08-30T08:21:59Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。