論文の概要: Whole-Herd Elephant Pose Estimation from Drone Data for Collective Behavior Analysis
- arxiv url: http://arxiv.org/abs/2411.00196v1
- Date: Thu, 31 Oct 2024 20:26:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:43:25.689166
- Title: Whole-Herd Elephant Pose Estimation from Drone Data for Collective Behavior Analysis
- Title(参考訳): 集団行動解析のためのドローンデータによる全頭エレファント電位の推定
- Authors: Brody McNutt, Libby Zhang, Angus Carey-Douglas, Fritz Vollrath, Frank Pope, Leandra Brickson,
- Abstract要約: この研究は、野生でのゾウの行動を研究するために、ドローンデータから自動ポーズ推定の先駆的な応用である。
実験室での利用で知られているDeepLabCutと、野生生物の行動研究には適用されていない新しいポーズ推定モデルYOLO-NAS-Poseの2つのポーズ推定モデルを評価する。
どちらも、テストセット上でのポーズ推定の許容品質を示し、ゾウ群集の動態を研究する上で不可欠な基本的な行動の自動検出を容易にした。
- 参考スコア(独自算出の注目度): 1.4072064932290227
- License:
- Abstract: This research represents a pioneering application of automated pose estimation from drone data to study elephant behavior in the wild, utilizing video footage captured from Samburu National Reserve, Kenya. The study evaluates two pose estimation workflows: DeepLabCut, known for its application in laboratory settings and emerging wildlife fieldwork, and YOLO-NAS-Pose, a newly released pose estimation model not previously applied to wildlife behavioral studies. These models are trained to analyze elephant herd behavior, focusing on low-resolution ($\sim$50 pixels) subjects to detect key points such as the head, spine, and ears of multiple elephants within a frame. Both workflows demonstrated acceptable quality of pose estimation on the test set, facilitating the automated detection of basic behaviors crucial for studying elephant herd dynamics. For the metrics selected for pose estimation evaluation on the test set -- root mean square error (RMSE), percentage of correct keypoints (PCK), and object keypoint similarity (OKS) -- the YOLO-NAS-Pose workflow outperformed DeepLabCut. Additionally, YOLO-NAS-Pose exceeded DeepLabCut in object detection evaluation. This approach introduces a novel method for wildlife behavioral research, including the burgeoning field of wildlife drone monitoring, with significant implications for wildlife conservation.
- Abstract(参考訳): この研究は、ケニアのサンブル国立保護区で撮影された映像を利用して、ドローンデータから象の行動を研究するための自動ポーズ推定の先駆的な応用である。
実験室の設定や野生生物のフィールドワークへの応用で知られているDeepLabCutと、これまで野生生物の行動研究には適用されなかった新しいポーズ推定モデルYOLO-NAS-Poseの2つのポーズ推定ワークフローを評価した。
これらのモデルは、象の群れの行動を分析するために訓練され、低解像度(50ピクセル)の被験者に焦点をあてて、フレーム内の複数の象の頭部、脊椎、耳などの重要な点を検出する。
両方のワークフローは、テストセット上でのポーズ推定の許容品質を示し、ゾウの群れの動態を研究するのに不可欠な基本的な行動の自動検出を容易にした。
テストセット、ルート平均二乗誤差(RMSE)、正しいキーポイントの割合(PCK)、オブジェクトキーポイント類似度(OKS) -- のポーズ推定のために選択されたメトリクスについて、YOLO-NAS-PoseワークフローはDeepLabCutより優れています。
さらに, YOLO-NAS-Poseは物体検出評価においてDeepLabCutを上回った。
このアプローチは、野生生物のドローン監視の急成長する分野を含む、野生生物の行動研究の新しい手法を導入し、野生生物の保全に重要な意味を持つ。
関連論文リスト
- SRPose: Two-view Relative Pose Estimation with Sparse Keypoints [51.49105161103385]
SRPoseは、カメラ・トゥ・ワールドおよびオブジェクト・トゥ・カメラシナリオにおける2ビュー相対ポーズ推定のためのスパースキーポイントベースのフレームワークである。
精度と速度の点で最先端の手法と比較して、競争力や優れた性能を達成する。
さまざまな画像サイズやカメラ固有の機能に対して堅牢であり、低コンピューティングリソースでデプロイすることができる。
論文 参考訳(メタデータ) (2024-07-11T05:46:35Z) - PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - Of Mice and Pose: 2D Mouse Pose Estimation from Unlabelled Data and
Synthetic Prior [0.7499722271664145]
そこで本稿では, 合成合成経験的ポーズを用いた2次元マウスのポーズ推定手法を提案する。
本手法はマウスの四肢構造に適応し,合成3次元マウスモデルから2次元ポーズの経験的先行を生成できる。
新しいマウスビデオデータセットの実験では,ポーズ予測を手作業で得られた真実と比較することにより,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2023-07-25T09:31:55Z) - Object counting from aerial remote sensing images: application to
wildlife and marine mammals [4.812718493682454]
人類形成活動は野生生物や海洋動物相に脅威をもたらす。
本研究は、深層学習技術を用いて、動物の計数作業を自動化する。
複雑な画像背景条件にもかかわらず、モデルは正確に動物を特定する。
論文 参考訳(メタデータ) (2023-06-17T23:14:53Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - A Unified Framework for Domain Adaptive Pose Estimation [70.54942818742]
本稿では,ドメイン適応型ポーズ推定問題によく対応できる統一フレームワークを提案する。
提案手法は,ヒトのポーズ推定における既存のベースラインを最大4.5ポイント(pp),手ポーズ推定を最大7.4pp,動物ポーズ推定を最大4.8pp,羊3.3ppで上回る。
論文 参考訳(メタデータ) (2022-04-01T02:47:31Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z) - Evaluation of deep lift pose models for 3D rodent pose estimation based
on geometrically triangulated data [1.84316002191515]
行動は3次元で理想的に捉えられるポーズの変化の観点から研究されるのが一般的である。
これは、異なる角度から動物を見るマルチカメラシステムに対する三角測量を必要とする。
そこで本研究では,単視点カメラビューから自由に動くロジトを頑健な3次元ポーズ推定が可能なリフトプレイスモデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T13:08:33Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Exploiting Depth Information for Wildlife Monitoring [0.0]
深度推定を用いて動物を検知・識別するカメラトラップを用いた自動手法を提案する。
個々の動物を検出・識別するために,いわゆるインスタンスセグメンテーションのための新しい手法D-Mask R-CNNを提案する。
実験により,動物検出における平均精度スコアの改善による追加深度推定の利点が示された。
論文 参考訳(メタデータ) (2021-02-10T18:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。