論文の概要: CVB: A Video Dataset of Cattle Visual Behaviors
- arxiv url: http://arxiv.org/abs/2305.16555v2
- Date: Mon, 3 Jul 2023 07:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 13:14:43.300287
- Title: CVB: A Video Dataset of Cattle Visual Behaviors
- Title(参考訳): CVB:牛の視覚行動のビデオデータセット
- Authors: Ali Zia, Renuka Sharma, Reza Arablouei, Greg Bishop-Hurley, Jody
McNally, Neil Bagnall, Vivien Rolland, Brano Kusy, Lars Petersson, Aaron
Ingham
- Abstract要約: 牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
- 参考スコア(独自算出の注目度): 13.233877352490923
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Existing image/video datasets for cattle behavior recognition are mostly
small, lack well-defined labels, or are collected in unrealistic controlled
environments. This limits the utility of machine learning (ML) models learned
from them. Therefore, we introduce a new dataset, called Cattle Visual
Behaviors (CVB), that consists of 502 video clips, each fifteen seconds long,
captured in natural lighting conditions, and annotated with eleven visually
perceptible behaviors of grazing cattle. We use the Computer Vision Annotation
Tool (CVAT) to collect our annotations. To make the procedure more efficient,
we perform an initial detection and tracking of cattle in the videos using
appropriate pre-trained models. The results are corrected by domain experts
along with cattle behavior labeling in CVAT. The pre-hoc detection and tracking
step significantly reduces the manual annotation time and effort. Moreover, we
convert CVB to the atomic visual action (AVA) format and train and evaluate the
popular SlowFast action recognition model on it. The associated preliminary
results confirm that we can localize the cattle and recognize their frequently
occurring behaviors with confidence. By creating and sharing CVB, our aim is to
develop improved models capable of recognizing all important behaviors
accurately and to assist other researchers and practitioners in developing and
evaluating new ML models for cattle behavior classification using video data.
- Abstract(参考訳): 牛の行動認識のための既存の画像/ビデオデータセットは、ほとんどが小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
これにより、機械学習(ML)モデルの有用性が制限される。
そこで本研究では,15秒毎に502本の映像クリップからなり,自然照明条件下で撮影され,放牧牛の視覚知覚行動11種類の注釈を付した,新たなデータセットであるcvbを提案する。
アノテーションの収集にはコンピュータビジョンアノテーションツール(cvat)を使用します。
この手法をより効率的にするために, 適切な事前学習モデルを用いて, ビデオ中のウシの初期検出と追跡を行う。
結果は、CVATにおける牛の行動ラベルとともに、ドメインの専門家によって修正される。
事前検出及び追跡ステップは、手動のアノテーションの時間と労力を大幅に削減する。
さらに,CVBをアトミック・ビジュアル・アクション(AVA)フォーマットに変換し,その上で人気のあるSlowFastアクション認識モデルを訓練し,評価する。
関連する予備結果は,牛の局所化と頻発する行動の認識を自信をもって行うことができることを確認した。
本研究の目的は,CVBの作成と共有により,すべての重要な行動を正確に認識できる改良モデルを開発し,ビデオデータを用いた牛の行動分類の新しいMLモデルの開発と評価を支援することである。
関連論文リスト
- Accelerometer-Based Multivariate Time-Series Dataset for Calf Behavior Classification [0.7366868731714773]
このデータセットは、アクセラレーション時系列から、事前に織り込まれたふくらはぎの振る舞いを分類するための、使用可能なデータセットである。
乳牛30頭には、生後1週間から13週間、ネックカラーに取り付けられた3D加速度センサーが装着された。
論文 参考訳(メタデータ) (2024-08-20T08:11:54Z) - From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - SuperAnimal pretrained pose estimation models for behavioral analysis [42.206265576708255]
行動の定量化は神経科学、獣医学、動物保護活動など様々な応用において重要である。
我々は、SuperAnimalと呼ばれる新しい手法で統一基盤モデルを開発するための一連の技術革新を提案する。
論文 参考訳(メタデータ) (2022-03-14T18:46:57Z) - Auxiliary Learning for Self-Supervised Video Representation via
Similarity-based Knowledge Distillation [2.6519061087638014]
本稿では,知識類似度蒸留法(auxSKD)を基礎として,補助的プレトレーニングフェーズを通じて自己指導型プレトレーニングを補完する新しい手法を提案する。
本手法は,学習者の学習モデルに対する知識を反復的に消し去る教師ネットワークを,未学習映像データのセグメント間の類似情報をキャプチャすることで展開する。
また、入力ビデオのランダムに選択されたセグメントの再生速度を予測し、より信頼性の高い自己教師付き表現を提供するための新しいプリテキストタスク、ビデオセグメントペース予測(VSPP)を導入する。
論文 参考訳(メタデータ) (2021-12-07T21:50:40Z) - PreViTS: Contrastive Pretraining with Video Tracking Supervision [53.73237606312024]
PreViTSは、同じオブジェクトを含むクリップを選択するための教師なしSSLフレームワークである。
PreViTSはフレーム領域を空間的に制約し、モデルから学習し、意味のあるオブジェクトを見つけるように訓練する。
モーメントコントラスト(MoCo)エンコーダを,PreViTSを用いてVGG-SoundとKinetics-400データセットでトレーニングする。
論文 参考訳(メタデータ) (2021-12-01T19:49:57Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。