論文の概要: T-LEAP: occlusion-robust pose estimation of walking cows using temporal
information
- arxiv url: http://arxiv.org/abs/2104.08029v1
- Date: Fri, 16 Apr 2021 10:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:21:00.532034
- Title: T-LEAP: occlusion-robust pose estimation of walking cows using temporal
information
- Title(参考訳): T-LEAP: 時間情報を用いた歩行牛の閉塞・腐食ポーズ推定
- Authors: Helena Russello, Rik van der Tol, Gert Kootstra
- Abstract要約: 乳牛の健康障害である乳腺は、乳牛の歩行を分析して一般的に検出される。
モデルが自動的に画像やビデオの解剖学的ランドマークをローカライズすることを学ぶので、牛の歩行はポーズ推定モデルを使用してビデオで追跡することができます。
ほとんどの動物のポーズ推定モデルは静的であり、ビデオはフレームごとに処理され、時間的情報を使用しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As herd size on dairy farms continue to increase, automatic health monitoring
of cows has gained in interest. Lameness, a prevalent health disorder in dairy
cows, is commonly detected by analyzing the gait of cows. A cow's gait can be
tracked in videos using pose estimation models because models learn to
automatically localize anatomical landmarks in images and videos. Most animal
pose estimation models are static, that is, videos are processed frame by frame
and do not use any temporal information. In this work, a static deep-learning
model for animal-pose-estimation was extended to a temporal model that includes
information from past frames. We compared the performance of the static and
temporal pose estimation models. The data consisted of 1059 samples of 4
consecutive frames extracted from videos (30 fps) of 30 different dairy cows
walking through an outdoor passageway. As farm environments are prone to
occlusions, we tested the robustness of the static and temporal models by
adding artificial occlusions to the videos. The experiments showed that, on
non-occluded data, both static and temporal approaches achieved a Percentage of
Correct Keypoints (PCKh@0.2) of 99%. On occluded data, our temporal approach
outperformed the static one by up to 32.9%, suggesting that using temporal data
is beneficial for pose estimation in environments prone to occlusions, such as
dairy farms. The generalization capabilities of the temporal model was
evaluated by testing it on data containing unknown cows (cows not present in
the training set). The results showed that the average detection rate
(PCKh@0.2) was of 93.8% on known cows and 87.6% on unknown cows, indicating
that the model is capable of generalizing well to new cows and that they could
be easily fine-tuned to new herds. Finally, we showed that with harder tasks,
such as occlusions and unknown cows, a deeper architecture was more beneficial.
- Abstract(参考訳): 乳製品農場の群れの規模が拡大するにつれて、牛の自動健康モニタリングが注目されている。
乳牛の健康障害である乳腺は、乳牛の歩行を分析して一般的に検出される。
牛の歩行は、モデルが画像やビデオの解剖学的ランドマークを自動的にローカライズすることを学ぶため、ポーズ推定モデルを使ってビデオで追跡することができる。
ほとんどの動物のポーズ推定モデルは静的であり、ビデオはフレームごとに処理され、時間的情報を使用しない。
本研究では,過去のフレームからの情報を含む時間モデルに動物候補推定のための静的深層学習モデルを拡張した。
静的ポーズ推定モデルと時間ポーズ推定モデルの比較を行った。
データは、屋外通路を歩いている30種類の乳牛のビデオ(30fps)から抽出された4つの連続したフレームの1059のサンプルから成っている。
農場の環境は閉塞しやすいため,ビデオに人工閉塞を加えることで,静的モデルと時間モデルのロバスト性を検証した。
実験の結果,非閉塞データでは,静的および時間的アプローチが正解キーポイントの割合(PCKh@0.2)が99%に達した。
隠蔽データでは, 時間的アプローチが静的なアプローチを最大32.9%上回り, 農作物などの排他的環境下でのポーズ推定に有効であることが示唆された。
テンポラルモデルの一般化能力は、未知の牛(訓練セットに存在しない牛)を含むデータを用いて評価した。
その結果、平均検出率 (pckh@0.2) は既知の牛で93.8%、未知の牛で87.6%であり、モデルが新しい牛にうまく一般化でき、新しい牛に容易に微調整できることを示した。
最後に,オクルージョンや未知の牛といった難易度の高い作業では,より深いアーキテクチャの方が有益であることを示した。
関連論文リスト
- Supervised Learning Model for Key Frame Identification from Cow Teat Videos [0.9115927248875568]
本稿では, ウシの乳房炎リスク評価の精度をニューラルネットワークとビデオ解析を用いて改善する手法を提案する。
伝統的に、獣医は乳牛の乳房の健康を評価する。
本論文は、牛のうどんが無傷に見えるビデオのキーフレームをニューラルネットワークで同定する。
論文 参考訳(メタデータ) (2024-09-26T15:50:43Z) - PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - CenTime: Event-Conditional Modelling of Censoring in Survival Analysis [49.44664144472712]
CenTimeは、イベントへの時間を直接見積もる、サバイバル分析の新しいアプローチである。
本手法は,非検閲データが少ない場合でも,堅牢なイベント条件検閲機構を特徴とする。
以上の結果から,CenTimeは同等の性能を維持しつつ,死までの時間を予測する上で,最先端のパフォーマンスを提供することがわかった。
論文 参考訳(メタデータ) (2023-09-07T17:07:33Z) - BovineTalk: Machine Learning for Vocalization Analysis of Dairy Cattle
under Negative Affective States [0.09786690381850353]
牛は口を閉じた,あるいは部分的に閉じた,近距離接触のための低周波発声 (LF) と遠距離通信のための高周波発声 (HF) の2種類の発声を行った。
本稿では,深層学習と説明可能な機械学習,高頻度および低周波の牛の鳴き声の分類,および個別の牛の音声認識の2つの計算フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:07:03Z) - Depth video data-enabled predictions of longitudinal dairy cow body
weight using thresholding and Mask R-CNN algorithms [3.6809995018369936]
本研究の目的は,繰り返し計測されたビデオデータから牛の体重を予測することである。
単一しきい値,適応しきい値,マスクR-CNNの3つのアプローチについて検討した。
その結果,深層学習に基づくセグメンテーションにより,長手深度映像データから牛の体重予測性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-03T22:27:37Z) - Particle-Based Score Estimation for State Space Model Learning in
Autonomous Driving [62.053071723903834]
マルチオブジェクト状態推定はロボットアプリケーションの基本的な問題である。
粒子法を用いて最大形パラメータを学習することを検討する。
自動運転車から収集した実データに本手法を適用した。
論文 参考訳(メタデータ) (2022-12-14T01:21:05Z) - Segmentation Enhanced Lameness Detection in Dairy Cows from RGB and
Depth Video [8.906235809404189]
早期の乳腺検出は、農家が早期に病気に対処し、牛の状態を悪化させることによるネガティブな影響を避けるのに役立つ。
乳房から出る牛の短いクリップのデータセットを収集し,牛の乳腺の程度を注釈した。
我々は、トレーニング済みのニューラルネットワークを利用してビデオから識別的特徴を抽出し、その状態を示す各牛にバイナリスコアを割り当てる「健康」または「ラム」を提案する。
論文 参考訳(メタデータ) (2022-06-09T12:16:31Z) - Using machine learning on new feature sets extracted from 3D models of
broken animal bones to classify fragments according to break agent [53.796331564067835]
ホミニン骨破壊による骨片と肉食動物による骨片の識別を目的とした骨折パターン解析への新しいアプローチを提案する。
この方法では、断片的な骨の3Dモデルを用いて、これまで骨折パターン解析に使用されていた特徴セットよりも透明性が高くレプリカ性の高いデータセットを抽出する。
監視された機械学習アルゴリズムは、骨断片を破片のエージェントに従って適切に分類するために使用され、平均的精度はテスト全体で77%である。
論文 参考訳(メタデータ) (2022-05-20T20:16:21Z) - Learning Summary Statistics for Bayesian Inference with Autoencoders [58.720142291102135]
我々は,ディープニューラルネットワークに基づくオートエンコーダの内部次元を要約統計として利用する。
パラメータ関連情報を全て符号化するエンコーダのインセンティブを作成するため,トレーニングデータの生成に使用した暗黙的情報にデコーダがアクセスできるようにする。
論文 参考訳(メタデータ) (2022-01-28T12:00:31Z) - Video-based cattle identification and action recognition [0.910162205512083]
家畜の行動を自動的に分析し,牛の福祉をモニタリングする作業プロトタイプを実演する。
深層学習モデルは農場で取得したビデオで開発、テストされ、牛の識別には81.2%の精度が達成されている。
論文 参考訳(メタデータ) (2021-10-14T00:55:56Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。