論文の概要: Automated Re-Identification of Holstein-Friesian Cattle in Dense Crowds
- arxiv url: http://arxiv.org/abs/2602.15962v1
- Date: Tue, 17 Feb 2026 19:25:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.416281
- Title: Automated Re-Identification of Holstein-Friesian Cattle in Dense Crowds
- Title(参考訳): 高密度群集におけるホルシュタイン・フリース牛の自動再同定
- Authors: Phoenix Yu, Tilo Burghardt, Andrew W Dowsey, Neill W Campbell,
- Abstract要約: そこで我々は,Open-Vocabulary Weight-free Localisation と Segment Anything モデルを利用した新しい検出セグメント識別パイプラインを提案する。
我々の手法は、密集した動物集団における検出の分解を克服し、98.93%の精度をもたらす。
教師なしのコントラスト学習がこれに基づいて構築され、テストデータに対して94.82%のRe-ID精度が得られることを示す。
- 参考スコア(独自算出の注目度): 2.3843187053931456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Holstein-Friesian detection and re-identification (Re-ID) methods capture individuals well when targets are spatially separate. However, existing approaches, including YOLO-based species detection, break down when cows group closely together. This is particularly prevalent for species which have outline-breaking coat patterns. To boost both effectiveness and transferability in this setting, we propose a new detect-segment-identify pipeline that leverages the Open-Vocabulary Weight-free Localisation and the Segment Anything models as pre-processing stages alongside Re-ID networks. To evaluate our approach, we publish a collection of nine days CCTV data filmed on a working dairy farm. Our methodology overcomes detection breakdown in dense animal groupings, resulting in a 98.93% accuracy. This significantly outperforms current oriented bounding box-driven, as well as SAM species detection baselines with accuracy improvements of 47.52% and 27.13%, respectively. We show that unsupervised contrastive learning can build on this to yield 94.82% Re-ID accuracy on our test data. Our work demonstrates that Re-ID in crowded scenarios is both practical as well as reliable in working farm settings with no manual intervention. Code and dataset are provided for reproducibility.
- Abstract(参考訳): Holstein-Friesian detection and re-identification (Re-ID)メソッドは、ターゲットが空間的に分離されたときに、個人をうまく捉える。
しかし、YOLOに基づく種検出を含む既存のアプローチは、牛が密接に群がったときに崩壊する。
これは特に、輪郭を破るコートパターンを持つ種によく見られる。
そこで本研究では,Re-IDネットワークと並行して,Open-Vocabulary Weight-free LocalisationとSegment Anythingモデルを前処理段階として活用する,新しい検出セグメンテーション同定パイプラインを提案する。
提案手法を評価するため,9日間のCCTVデータ収集を行った。
我々の手法は、密集した動物集団における検出の分解を克服し、98.93%の精度をもたらす。
これにより、現在の配向ボックス駆動の精度は47.52%と27.13%の精度でSAM種検出ベースラインよりも大幅に向上する。
教師なしのコントラスト学習がこれに基づいて構築され、テストデータに対して94.82%のRe-ID精度が得られることを示す。
我々の研究は、密集したシナリオにおけるRe-IDは実用的であり、手動で介入することなく、作業ファーム設定において信頼性があることを示している。
コードとデータセットは再現性のために提供される。
関連論文リスト
- Cattle-CLIP: A Multimodal Framework for Cattle Behaviour Recognition [5.45546363077543]
Cattle-CLIPは、牛の行動認識のためのマルチモーダルなディープラーニングフレームワークである。
これは、時間統合モジュールを追加することで、大規模な画像言語モデルCLIPから適応される。
実験により、キャトル-CLIPは6つの行動に対して96.1%の総合的精度を達成することが示された。
論文 参考訳(メタデータ) (2025-10-10T09:43:12Z) - Holstein-Friesian Re-Identification using Multiple Cameras and Self-Supervision on a Working Farm [2.9391768712283772]
複数のカメラで撮影されたMultiCamCows2024は、ホルシュタイン・フリース種牛の生体認証のための大規模画像データセットである。
データセットは、90頭の牛の101,329枚の画像と、基盤となるCCTVの映像で構成されている。
本研究では,データセットから画像の識別精度を96%以上上回る性能を報告し,学習中の複数のカメラからのデータを組み合わせることで,自己教師付き識別が促進されることを示した。
論文 参考訳(メタデータ) (2024-10-16T15:58:47Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Label a Herd in Minutes: Individual Holstein-Friesian Cattle
Identification [12.493458478953515]
農場全体での視覚牛のIDシステムの訓練には,ラベル付けに10分しかかからなかった。
実世界の農業CCTVにおける個人ホルシュタイン・フリーズの自動識別作業において,自己監督,メートル法学習,クラスタ分析,アクティブラーニングが相互に補完可能であることを示す。
論文 参考訳(メタデータ) (2022-04-22T19:41:47Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Visual Identification of Individual Holstein-Friesian Cattle via Deep
Metric Learning [8.784100314325395]
ホルシュタイン・フリーズ産の牛は、チューリングの反応拡散系から生じたものと類似した、個々の特性の白黒のコートパターンを視覚的に示す。
この研究は、畳み込みニューラルネットワークとディープメトリック学習技術を介して、個々のホルシュタイン・フリース人の視覚的検出と生体認証を自動化するために、これらの自然なマーキングを利用する。
論文 参考訳(メタデータ) (2020-06-16T14:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。