論文の概要: Consistent multi-animal pose estimation in cattle using dynamic Kalman filter based tracking
- arxiv url: http://arxiv.org/abs/2503.10450v1
- Date: Thu, 13 Mar 2025 15:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:52:39.312384
- Title: Consistent multi-animal pose estimation in cattle using dynamic Kalman filter based tracking
- Title(参考訳): ダイナミックカルマンフィルタを用いた牛の連続多動物ポーズ推定
- Authors: Maarten Perneel, Ines Adriaens, Ben Aernouts, Jan Verwaeren,
- Abstract要約: KeySORTは、トラックレットをバウンディングボックスフリーで構築するための適応カルマンフィルタであり、検出されたキーポイントの時間的一貫性を著しく向上する。
実験結果から,提案アルゴリズムは,精度の高い真理キーポイントの最大80%を検出できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Over the past decade, studying animal behaviour with the help of computer vision has become more popular. Replacing human observers by computer vision lowers the cost of data collection and therefore allows to collect more extensive datasets. However, the majority of available computer vision algorithms to study animal behaviour is highly tailored towards a single research objective, limiting possibilities for data reuse. In this perspective, pose-estimation in combination with animal tracking offers opportunities to yield a higher level representation capturing both the spatial and temporal component of animal behaviour. Such a higher level representation allows to answer a wide variety of research questions simultaneously, without the need to develop repeatedly tailored computer vision algorithms. In this paper, we therefore first cope with several weaknesses of current pose-estimation algorithms and thereafter introduce KeySORT (Keypoint Simple and Online Realtime Tracking). KeySORT deploys an adaptive Kalman filter to construct tracklets in a bounding-box free manner, significantly improving the temporal consistency of detected keypoints. In this paper, we focus on pose estimation in cattle, but our methodology can easily be generalised to any other animal species. Our test results indicate our algorithm is able to detect up to 80% of the ground truth keypoints with high accuracy, with only a limited drop in performance when daylight recordings are compared to nightvision recordings. Moreover, by using KeySORT to construct skeletons, the temporal consistency of generated keypoint coordinates was largely improved, offering opportunities with regard to automated behaviour monitoring of animals.
- Abstract(参考訳): 過去10年間で、コンピュータビジョンの助けを借りて動物の行動を研究することがますます人気になっている。
人間のオブザーバをコンピュータビジョンで置き換えることで、データ収集のコストが低下し、より広範なデータセットの収集が可能になる。
しかし、動物行動を研究するコンピュータビジョンアルゴリズムの大多数は、データ再利用の可能性を制限する単一の研究目標に向けて高度に調整されている。
この観点から、動物追跡と組み合わせたポーズ推定は、動物行動の空間的および時間的要素の両方をキャプチャーする高いレベルの表現を得る機会を与える。
このようなハイレベルな表現は、コンピュータビジョンアルゴリズムの繰り返しを開発することなく、様々な研究課題に同時に答えることができる。
そこで本稿では,まず現在のポーズ推定アルゴリズムの弱点に対処し,その後Keypoint Simple and Online Realtime Tracking(KeySORT)を導入する。
KeySORTは適応的なカルマンフィルタを配置し、トラックレットをバウンディングボックスフリーで構築し、検出されたキーポイントの時間的一貫性を大幅に改善する。
本稿では,牛の行動推定に焦点をあてるが,本手法は他の動物種にも容易に一般化できる。
実験結果から,日光記録と夜景記録とを比較した場合,実測値の最大80%を精度良く検出できることがわかった。
さらに, 骨格構築にKeySORTを用いることで, 生成したキーポイント座標の時間的整合性が大きく向上し, 動物の行動監視の自動化が可能となった。
関連論文リスト
- Improving Object Detection for Time-Lapse Imagery Using Temporal Features in Wildlife Monitoring [0.5580662655439501]
時間経過シーケンスの単一フレームにおける対象検出器の性能は,前フレームからの時間的特徴を含めることで向上できることを示す。
シーンの静止要素と非静止要素をキャプチャする2つの追加空間特徴チャネルを統合することで、時間情報を活用する手法を提案する。
論文 参考訳(メタデータ) (2024-12-20T20:37:09Z) - Public Computer Vision Datasets for Precision Livestock Farming: A Systematic Survey [3.3651853492305177]
本研究は,家畜のCVデータセットの公開に関する最初の体系的な調査である。
58の公開データセットのうち、ほぼ半分は牛用で、続いて豚、鶏、その他の動物が続く。
個人の動物検出とカラーイメージングは、家畜にとって主要な応用であり、画像のモダリティである。
論文 参考訳(メタデータ) (2024-06-15T13:22:41Z) - AnimalFormer: Multimodal Vision Framework for Behavior-based Precision Livestock Farming [0.0]
精密畜産のためのマルチモーダルビジョン・フレームワークを提案する。
我々は、GroundingDINO、HQSAM、ViTPoseモデルのパワーを利用する。
このスイートは、侵入的な動物タグ付けをすることなく、ビデオデータから包括的な行動分析を可能にする。
論文 参考訳(メタデータ) (2024-06-14T04:42:44Z) - Open-Vocabulary Animal Keypoint Detection with Semantic-feature Matching [74.75284453828017]
Open-Vocabulary Keypoint Detection (OVKD)タスクは、任意の種類のキーポイントを特定するためにテキストプロンプトを使用するように設計されている。
セマンティック・フェールマッチング(KDSM)を用いた開語彙キーポイント検出(Open-Vocabulary Keypoint Detection)という新しいフレームワークを開発した。
このフレームワークは視覚と言語モデルを組み合わせて、言語機能とローカルキーポイント視覚機能との相互作用を作成する。
論文 参考訳(メタデータ) (2023-10-08T07:42:41Z) - Improving Out-of-Distribution Generalization of Neural Rerankers with
Contextualized Late Interaction [52.63663547523033]
マルチベクトルの最も単純な形式である後期相互作用は、[]ベクトルのみを使用して類似度スコアを計算する神経リランカにも役立ちます。
異なるモデルサイズと多様な性質の第一段階のレトリバーに一貫性があることが示される。
論文 参考訳(メタデータ) (2023-02-13T18:42:17Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Livestock Monitoring with Transformer [4.298326853567677]
我々は,集団飼育豚を対象としたエンドツーエンド行動監視システムを開発し,インスタンスレベルのセグメンテーション,トラッキング,行動認識,再識別タスクを同時実施する。
本稿では, トランスフォーマーアーキテクチャを用いて, グループ豚のインスタンスレベルの埋め込みを学習する, エンドツーエンド多目的家畜監視フレームワークであるStarformerについて紹介する。
論文 参考訳(メタデータ) (2021-11-01T10:03:49Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。