論文の概要: Towards Self-Supervision for Video Identification of Individual
Holstein-Friesian Cattle: The Cows2021 Dataset
- arxiv url: http://arxiv.org/abs/2105.01938v1
- Date: Wed, 5 May 2021 09:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:48:04.076552
- Title: Towards Self-Supervision for Video Identification of Individual
Holstein-Friesian Cattle: The Cows2021 Dataset
- Title(参考訳): ホルスタイン・フリース牛の映像識別のためのセルフスーパービジョン:Cows2021データセット
- Authors: Jing Gao, Tilo Burghardt, William Andrew, Andrew W. Dowsey, Neill W.
Campbell
- Abstract要約: 我々は最大のアイデンティティアノテートホルスタインフリースアン牛データセットCows2021を公開します。
動物同一性学習のための自己超越信号として,ビデオ間の時間的コートパターンの出現を活用することを提案する。
その結果、top-1 57.0% と top-4: 76.9% と調整された rand 指数 0.53 の精度を示した。
- 参考スコア(独自算出の注目度): 10.698921107213554
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we publish the largest identity-annotated Holstein-Friesian
cattle dataset Cows2021 and a first self-supervision framework for video
identification of individual animals. The dataset contains 10,402 RGB images
with labels for localisation and identity as well as 301 videos from the same
herd. The data shows top-down in-barn imagery, which captures the breed's
individually distinctive black and white coat pattern. Motivated by the
labelling burden involved in constructing visual cattle identification systems,
we propose exploiting the temporal coat pattern appearance across videos as a
self-supervision signal for animal identity learning. Using an
individual-agnostic cattle detector that yields oriented bounding-boxes,
rotation-normalised tracklets of individuals are formed via
tracking-by-detection and enriched via augmentations. This produces a
`positive' sample set per tracklet, which is paired against a `negative' set
sampled from random cattle of other videos. Frame-triplet contrastive learning
is then employed to construct a metric latent space. The fitting of a Gaussian
Mixture Model to this space yields a cattle identity classifier. Results show
an accuracy of Top-1 57.0% and Top-4: 76.9% and an Adjusted Rand Index: 0.53
compared to the ground truth. Whilst supervised training surpasses this
benchmark by a large margin, we conclude that self-supervision can nevertheless
play a highly effective role in speeding up labelling efforts when initially
constructing supervision information. We provide all data and full source code
alongside an analysis and evaluation of the system.
- Abstract(参考訳): 本稿では,ホルシュタイン・フリース種牛群集Cows2021と,動物のビデオ識別のための最初の自己監督フレームワークを公表する。
データセットには、ローカライゼーションとアイデンティティのためのラベル付き10,402のRGBイメージと、同じ群れからの301のビデオが含まれている。
データはトップダウンのインバーン画像を示し、品種の個々に特徴的な黒と白のコートパターンを捉えている。
視覚的牛の識別システム構築におけるラベル付けの負担に乗じて,ビデオ間の時間的コートパターンの出現を動物識別学習の自己超越信号として活用することを提案する。
向き付けられた境界ボックスを産出する個体非依存の牛検出器を用いて、個体の回転正規化トラックレットを追跡・検出によって形成し、増強によって濃縮する。
これはトラックレット毎の‘陽性’サンプルセットを生成し、他のビデオのランダムな牛からサンプリングされた‘負’セットとペアリングする。
フレーム三重項コントラスト学習は、計量的潜在空間を構成するために用いられる。
ガウス混合モデルのこの空間への適合は、牛の同一性分類器をもたらす。
その結果、top-1 57.0% と top-4: 76.9% と調整された rand 指数 0.53 の精度を示した。
教師付きトレーニングは、このベンチマークを大きなマージンで上回っているが、しかしながら、監督情報を構築する際のラベル付け作業のスピードアップにおいて、自己監督が極めて効果的な役割を果たすと結論づけている。
システムの解析と評価とともに,すべてのデータとソースコードを提供する。
関連論文リスト
- APTv2: Benchmarking Animal Pose Estimation and Tracking with a
Large-scale Dataset and Beyond [27.50166679588048]
APTv2は動物のポーズ推定と追跡のための大規模ベンチマークのパイオニアである。
ビデオクリップは2,749本で、30種の動物から抽出・収集されている。
我々は,84,611種の動物インスタンスに対して高品質なキーポイントと追跡アノテーションを提供する。
論文 参考訳(メタデータ) (2023-12-25T04:49:49Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - Segmentation Enhanced Lameness Detection in Dairy Cows from RGB and
Depth Video [8.906235809404189]
早期の乳腺検出は、農家が早期に病気に対処し、牛の状態を悪化させることによるネガティブな影響を避けるのに役立つ。
乳房から出る牛の短いクリップのデータセットを収集し,牛の乳腺の程度を注釈した。
我々は、トレーニング済みのニューラルネットワークを利用してビデオから識別的特徴を抽出し、その状態を示す各牛にバイナリスコアを割り当てる「健康」または「ラム」を提案する。
論文 参考訳(メタデータ) (2022-06-09T12:16:31Z) - Label a Herd in Minutes: Individual Holstein-Friesian Cattle
Identification [12.493458478953515]
農場全体での視覚牛のIDシステムの訓練には,ラベル付けに10分しかかからなかった。
実世界の農業CCTVにおける個人ホルシュタイン・フリーズの自動識別作業において,自己監督,メートル法学習,クラスタ分析,アクティブラーニングが相互に補完可能であることを示す。
論文 参考訳(メタデータ) (2022-04-22T19:41:47Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Labelling unlabelled videos from scratch with multi-modal
self-supervision [82.60652426371936]
ビデオデータセットの教師なしラベリングは、強力な機能エンコーダから解放されない。
人間のアノテーションを使わずにビデオデータセットの擬似ラベリングを可能にする新しいクラスタリング手法を提案する。
広範囲な分析により、結果として得られたクラスタは、真理の人間ラベルと高いセマンティックオーバーラップがあることが示されている。
論文 参考訳(メタデータ) (2020-06-24T12:28:17Z) - Visual Identification of Individual Holstein-Friesian Cattle via Deep
Metric Learning [8.784100314325395]
ホルシュタイン・フリーズ産の牛は、チューリングの反応拡散系から生じたものと類似した、個々の特性の白黒のコートパターンを視覚的に示す。
この研究は、畳み込みニューラルネットワークとディープメトリック学習技術を介して、個々のホルシュタイン・フリース人の視覚的検出と生体認証を自動化するために、これらの自然なマーキングを利用する。
論文 参考訳(メタデータ) (2020-06-16T14:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。