論文の概要: CattleEyeView: A Multi-task Top-down View Cattle Dataset for Smarter
Precision Livestock Farming
- arxiv url: http://arxiv.org/abs/2312.08764v1
- Date: Thu, 14 Dec 2023 09:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 23:14:25.663268
- Title: CattleEyeView: A Multi-task Top-down View Cattle Dataset for Smarter
Precision Livestock Farming
- Title(参考訳): coweyeview - より精密な家畜栽培のためのマルチタスクトップダウンビュー牛データセット
- Authors: Kian Eng Ong, Sivaji Retta, Ramarajulu Srinivasan, Shawn Tan, Jun Liu
- Abstract要約: CattleEyeViewデータセットは、最初のトップダウンビューマルチタスク牛のビデオデータセットである。
データセットには、30,703フレームで753種類のトップダウン牛のインスタンスが含まれている。
我々は,各タスクに対するモデルの性能を評価するためのベンチマーク実験を行った。
- 参考スコア(独自算出の注目度): 6.291219495092237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cattle farming is one of the important and profitable agricultural
industries. Employing intelligent automated precision livestock farming systems
that can count animals, track the animals and their poses will raise
productivity and significantly reduce the heavy burden on its already limited
labor pool. To achieve such intelligent systems, a large cattle video dataset
is essential in developing and training such models. However, many current
animal datasets are tailored to few tasks or other types of animals, which
result in poorer model performance when applied to cattle. Moreover, they do
not provide top-down views of cattle. To address such limitations, we introduce
CattleEyeView dataset, the first top-down view multi-task cattle video dataset
for a variety of inter-related tasks (i.e., counting, detection, pose
estimation, tracking, instance segmentation) that are useful to count the
number of cows and assess their growth and well-being. The dataset contains 753
distinct top-down cow instances in 30,703 frames (14 video sequences). We
perform benchmark experiments to evaluate the model's performance for each
task. The dataset and codes can be found at
https://github.com/AnimalEyeQ/CattleEyeView.
- Abstract(参考訳): 牛の農業は重要な農業産業の1つである。
動物の数を数えたり、動物とそのポーズを追跡したりできるインテリジェントな自動精密家畜農業システムを使用することで、生産性を高め、既に制限された労働プールの重荷を著しく軽減できる。
このようなインテリジェントなシステムを実現するには,大規模な牛のビデオデータセットが不可欠である。
しかし、現在の多くの動物データセットは、少数のタスクや他の種類の動物に適合しており、牛に適用した場合のモデル性能は低下する。
また、牛をトップダウンで見ることはできない。
このような制限に対処するために、我々は、牛の数を数え、成長と幸福度を評価するのに役立つ、様々な関連タスク(数え、検出、ポーズ推定、追跡、インスタンスセグメンテーション)のための、最初のトップダウンビューのマルチタスクビデオデータセットであるcoweyeviewデータセットを紹介します。
データセットには、30,703フレーム(14の動画シーケンス)で753種類のトップダウン牛のインスタンスが含まれている。
各タスクに対するモデルの性能を評価するためのベンチマーク実験を行う。
データセットとコードはhttps://github.com/animaleyeq/cattleeyeviewにある。
関連論文リスト
- Public Computer Vision Datasets for Precision Livestock Farming: A Systematic Survey [3.3651853492305177]
本研究は,家畜のCVデータセットの公開に関する最初の体系的な調査である。
58の公開データセットのうち、ほぼ半分は牛用で、続いて豚、鶏、その他の動物が続く。
個人の動物検出とカラーイメージングは、家畜にとって主要な応用であり、画像のモダリティである。
論文 参考訳(メタデータ) (2024-06-15T13:22:41Z) - AnimalFormer: Multimodal Vision Framework for Behavior-based Precision Livestock Farming [0.0]
精密畜産のためのマルチモーダルビジョン・フレームワークを提案する。
我々は、GroundingDINO、HQSAM、ViTPoseモデルのパワーを利用する。
このスイートは、侵入的な動物タグ付けをすることなく、ビデオデータから包括的な行動分析を可能にする。
論文 参考訳(メタデータ) (2024-06-14T04:42:44Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - Animal Kingdom: A Large and Diverse Dataset for Animal Behavior
Understanding [4.606145900630665]
大規模で多様なデータセットであるAnimal Kingdomを作成し、複数の注釈付きタスクを提供します。
私たちのデータセットには、関連する動物行動セグメントをローカライズする50時間のアノテーション付きビデオが含まれています。
本研究では,未確認新種動物を用いた行動認識の一般的な特徴と特定の特徴を学習する協調行動認識(CARe)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T02:05:15Z) - Livestock Monitoring with Transformer [4.298326853567677]
我々は,集団飼育豚を対象としたエンドツーエンド行動監視システムを開発し,インスタンスレベルのセグメンテーション,トラッキング,行動認識,再識別タスクを同時実施する。
本稿では, トランスフォーマーアーキテクチャを用いて, グループ豚のインスタンスレベルの埋め込みを学習する, エンドツーエンド多目的家畜監視フレームワークであるStarformerについて紹介する。
論文 参考訳(メタデータ) (2021-11-01T10:03:49Z) - Multi-Task Self-Training for Learning General Representations [97.01728635294879]
マルチタスク・セルフトレーニング(MuST)は、独立した専門教師モデルにおける知識を活用して、一人の一般学生モデルを訓練する。
MuSTはラベルなしまたは部分的にラベル付けされたデータセットでスケーラブルで、大規模データセットのトレーニングにおいて、特別な教師付きモデルとセルフ教師付きモデルの両方を上回っている。
論文 参考訳(メタデータ) (2021-08-25T17:20:50Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences
for Urban Scene Segmentation [57.68890534164427]
本研究では,未ラベル映像シーケンスと追加画像の半教師付き学習を利用して,都市景観セグメンテーションの性能を向上させることができるかどうかを問う。
我々は単にラベルのないデータに対して擬似ラベルを予測し、人間の注釈付きデータと擬似ラベル付きデータの両方でその後のモデルを訓練する。
我々のNaive-Studentモデルは、このような単純で効果的な反復的半教師付き学習で訓練され、3つのCityscapesベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-05-20T18:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。