論文の概要: Video-based Automatic Lameness Detection of Dairy Cows using Pose
Estimation and Multiple Locomotion Traits
- arxiv url: http://arxiv.org/abs/2401.05202v1
- Date: Wed, 10 Jan 2024 14:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 14:17:08.437869
- Title: Video-based Automatic Lameness Detection of Dairy Cows using Pose
Estimation and Multiple Locomotion Traits
- Title(参考訳): 姿勢推定と複数ロコモーション特性を用いた乳牛の自動ラメネス検出
- Authors: Helena Russello, Rik van der Tol, Menno Holzhauer, Eldert J. van
Henten, Gert Kootstra
- Abstract要約: 歩行牛のビデオから9つのキーポイントの動きを抽出した。
キーポイントの軌跡は6つの移動特性を計算するのに使われた。
3つの重要な特徴は、背姿勢測定、頭部ボビング、追跡距離であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents an automated lameness detection system that uses
deep-learning image processing techniques to extract multiple locomotion traits
associated with lameness. Using the T-LEAP pose estimation model, the motion of
nine keypoints was extracted from videos of walking cows. The videos were
recorded outdoors, with varying illumination conditions, and T-LEAP extracted
99.6% of correct keypoints. The trajectories of the keypoints were then used to
compute six locomotion traits: back posture measurement, head bobbing, tracking
distance, stride length, stance duration, and swing duration. The three most
important traits were back posture measurement, head bobbing, and tracking
distance. For the ground truth, we showed that a thoughtful merging of the
scores of the observers could improve intra-observer reliability and agreement.
We showed that including multiple locomotion traits improves the classification
accuracy from 76.6% with only one trait to 79.9% with the three most important
traits and to 80.1% with all six locomotion traits.
- Abstract(参考訳): 本研究では, 深層学習画像処理技術を用いて, 透視に関連する複数の移動特性を抽出する自動透視検出システムを提案する。
t-leapポーズ推定モデルを用いて,歩く牛の動画から9つのキーポイントの動きを抽出した。
ビデオは様々な照明条件で屋外で録画され、T-LEAPは正しいキーポイントの99.6%を抽出した。
キーポイントの軌跡は、後部姿勢測定、頭部ボビング、追跡距離、ストライド長、姿勢持続時間、揺動長の6つの特性を計算するために使用された。
3つの重要な特徴は、背姿勢測定、頭部ボビング、追跡距離であった。
実のところ、観測者のスコアを慎重にマージすることで、オブザーバ内の信頼性と合意が向上することを示した。
その結果,複数の移動特性を含めると,分類精度は76.6%,3つの重要な特性で79.9%,6つの移動特性で80.1%に向上した。
関連論文リスト
- Development of a digital tool for monitoring the behaviour of pre-weaned calves using accelerometer neck-collars [0.0]
30頭の乳牛がネックコラーに取り付けられた3D加速度計を2ヶ月間装備し、同時に撮影された。
この行動には注釈が付され、27.4時間の観測が加速度計のデータと一致した。
2つの機械学習モデルは、子牛の80%のデータを使って調整された。
論文 参考訳(メタデータ) (2024-06-25T08:11:22Z) - Wearable Sensor-Based Few-Shot Continual Learning on Hand Gestures for Motor-Impaired Individuals via Latent Embedding Exploitation [6.782362178252351]
本稿では,リプレイベースのFew-Shot連続学習フレームワークにおいて,Latent Embedding Exploitation (LEE) 機構を導入する。
本手法は,ジェスチャー先行知識として知られる保存された潜伏埋め込みを利用して,多様な潜伏特徴空間を生成する。
本手法は、運動障害者がウェアラブルデバイスを活用するのに役立ち、そのユニークな動作スタイルを学習し応用することができる。
論文 参考訳(メタデータ) (2024-05-14T21:20:27Z) - Evaluating ROCKET and Catch22 features for calf behaviour classification from accelerometer data using Machine Learning models [0.7366868731714773]
アイルランドのホルスタイン・フリーシアンとジャージーの30頭が加速度センサで監視され、27.4時間の注釈付き行動が可能となった。
手作りの機能は機械学習モデルで一般的に使用されるが、ROCKETとCatch22は時系列分類問題のために特別に設計されている。
本研究の目的は,ROCKETとCatch22の機能とハンドクラフト機能の比較である。
論文 参考訳(メタデータ) (2024-04-28T12:23:01Z) - Correlation-Embedded Transformer Tracking: A Single-Branch Framework [69.0798277313574]
本稿では,トランスにインスパイアされた新しい単一ブランチ追跡フレームワークを提案する。
Siameseのような特徴抽出とは異なり、トラッカーは機能ネットワークの複数の層にクロスイメージ特徴相関を深く埋め込む。
出力機能は、追加の相関ステップなしでターゲット位置を予測するために直接使用できる。
論文 参考訳(メタデータ) (2024-01-23T13:20:57Z) - Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia [3.2739089842471136]
認知症高齢者の歩行の映像に基づく環境モニタリングは、健康のネガティブな変化を検出する可能性がある。
コンピュータビジョンに基づくポーズトラッキングモデルは、ビデオデータを自動的に処理し、関節位置を抽出することができる。
これらのモデルは、高齢者や臨床集団の歩行分析に最適化されていない。
論文 参考訳(メタデータ) (2023-08-22T14:59:17Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Multi-level Motion Attention for Human Motion Prediction [132.29963836262394]
本研究は, 関節, 身体部分, フルポーズレベルなど, 異なる種類の注意力の使用について検討した。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を検証した。
論文 参考訳(メタデータ) (2021-06-17T08:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。