論文の概要: Accelerometer-Based Multivariate Time-Series Dataset for Calf Behavior Classification
- arxiv url: http://arxiv.org/abs/2409.00053v1
- Date: Tue, 20 Aug 2024 08:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-08 15:31:02.397263
- Title: Accelerometer-Based Multivariate Time-Series Dataset for Calf Behavior Classification
- Title(参考訳): カルフ挙動分類のための加速度計に基づく多変量時系列データセット
- Authors: Oshana Dissanayake, Sarah E. McPherson, Joseph Allyndree, Emer Kennedy, Padraig Cunningham, Lucile Riaboff,
- Abstract要約: このデータセットは、アクセラレーション時系列から、事前に織り込まれたふくらはぎの振る舞いを分類するための、使用可能なデータセットである。
乳牛30頭には、生後1週間から13週間、ネックカラーに取り付けられた3D加速度センサーが装着された。
- 参考スコア(独自算出の注目度): 0.7366868731714773
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Getting new insights on pre-weaned calf behavioral adaptation to routine challenges (transport, group relocation, etc.) and diseases (respiratory diseases, diarrhea, etc.) is a promising way to improve calf welfare in dairy farms. A classic approach to automatically monitoring behavior is to equip animals with accelerometers attached to neck collars and to develop machine learning models from accelerometer time-series. However, to be used for model development, data must be equipped with labels. Obtaining these labels requires annotating behaviors from direct observation or videos, a time-consuming and labor-intensive process. To address this challenge, we propose the ActBeCalf (Accelerometer Time-Series for Calf Behaviour classification) dataset: 30 pre-weaned dairy calves (Holstein Friesian and Jersey) were equipped with a 3D-accelerometer sensor attached to a neck-collar from one week of birth for 13 weeks. The calves were simultaneously filmed with a camera in each pen. At the end of the trial, behaviors were manually annotated from the videos using the Behavioral Observation Research Interactive Software (BORIS) by 3 observers using an ethogram with 23 behaviors. ActBeCalf contains 27.4 hours of accelerometer data aligned adequately with calf behaviors. The dataset includes the main behaviors, like lying, standing, walking, and running, and less prominent behaviors, such as sniffing, social interaction, and grooming. Finally, ActBeCalf was used for behavior classification with machine learning models: (i)two classes of behaviors, [active and inactive; model 1] and (ii)four classes of behaviors [running, lying, drinking milk, and 'other' class; model 2] to demonstrate its reliability. We got a balanced accuracy of 92% [model1] and 84% [model2]. ActBeCalf is a comprehensive and ready-to-use dataset for classifying pre-weaned calf behaviour from the acceleration time series.
- Abstract(参考訳): 日常的な課題(輸送、集団移転など)や病気(呼吸器疾患、下気道など)に対する先天的なふくらはぎの行動適応に関する新たな洞察を得ることは、乳園におけるふくらはぎの福祉を改善するための有望な方法である。
行動を自動的に監視するための古典的なアプローチは、首首に加速度計を取り付け、加速度計の時系列から機械学習モデルを開発することである。
しかし、モデル開発に使用するには、データはラベルを組み込まなければならない。
これらのラベルを取得するには、直接の観察やビデオからのアノテート行動、時間を要する労働集約的なプロセスが必要です。
この課題に対処するため,ActBeCalf (Accelerometer Time-Series for Calf Behaviour Classification) データセットを提案する。30頭の乳牛(ホルシュタイン・フリーズとジャージー)に3D加速度センサを装着し,生後1週間から13週間にわたってネックカラーに装着した。
子牛は同時に、それぞれのペンにカメラで撮影されました。
実験の最後には、3人の観察者による行動観察研究インタラクティブソフトウェア(BORIS)を用いて、23人の行動のエトグラムを用いて動画から手動でアノテートした。
ActBeCalfには27.4時間の加速度計データがあり、ふくらはぎの振る舞いと適切に一致している。
データセットには、嘘、立ち上がり、歩き、走りといった主な行動と、嗅ぎ、社会的相互作用、グルーミングといった目立たない行動が含まれている。
最後に、ActBeCalfは機械学習モデルによる行動分類に使われた。
(i)行動の2つのクラス、[アクティブかつ非アクティブ;モデル1]および
(二)行動の4つのクラス(走り、横たわり、牛乳を飲む、その他の」クラス;モデル2)がその信頼性を示す。
バランスの取れた精度は92%[モデル1]と84%[モデル2]でした。
ActBeCalfは、アクセラレーション時系列から既成のふくらはぎの振る舞いを分類するための、包括的で使用可能なデータセットである。
関連論文リスト
- A Comparison of Deep Learning and Established Methods for Calf Behaviour Monitoring [0.0]
本報告では,動物活動の認知に関する福祉モニタリング支援研究について報告する。
このデータは、ホルスタインとジャージーの子牛が装着した首輪搭載加速度センサーから得られたものだ。
振る舞いの変化を検出する上で重要な要件は、アクティビティをクラスに分類できることである。
論文 参考訳(メタデータ) (2024-08-23T13:02:24Z) - Development of a digital tool for monitoring the behaviour of pre-weaned calves using accelerometer neck-collars [0.0]
30頭の乳牛がネックコラーに取り付けられた3D加速度計を2ヶ月間装備し、同時に撮影された。
この行動には注釈が付され、27.4時間の観測が加速度計のデータと一致した。
2つの機械学習モデルは、子牛の80%のデータを使って調整された。
論文 参考訳(メタデータ) (2024-06-25T08:11:22Z) - Evaluating ROCKET and Catch22 features for calf behaviour classification from accelerometer data using Machine Learning models [0.7366868731714773]
アイルランドのホルスタイン・フリーシアンとジャージーの30頭が加速度センサで監視され、27.4時間の注釈付き行動が可能となった。
手作りの機能は機械学習モデルで一般的に使用されるが、ROCKETとCatch22は時系列分類問題のために特別に設計されている。
本研究の目的は,ROCKETとCatch22の機能とハンドクラフト機能の比較である。
論文 参考訳(メタデータ) (2024-04-28T12:23:01Z) - Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Sedentary Behavior Estimation with Hip-worn Accelerometer Data:
Segmentation, Classification and Thresholding [1.9402357545481315]
ヒップワーンデータに基づく鎮静行動推定の従来手法は、自由生活状況や主観と対象の変動において、しばしば無効または準最適である。
本稿では,この状況を考慮に入れた局所マルコフ切替モデルを提案し,そのモデルに自然に適合する姿勢分類と摂食行動解析の一般的な手順を提案する。
論文 参考訳(メタデータ) (2022-07-05T05:01:11Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - Multi-level Motion Attention for Human Motion Prediction [132.29963836262394]
本研究は, 関節, 身体部分, フルポーズレベルなど, 異なる種類の注意力の使用について検討した。
我々は,Human3.6M,AMASS,3DPWを用いて,周期的および非周期的両方の行動に対するアプローチの利点を検証した。
論文 参考訳(メタデータ) (2021-06-17T08:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。