論文の概要: Benchmarking pig detection and tracking under diverse and challenging conditions
- arxiv url: http://arxiv.org/abs/2507.16639v1
- Date: Tue, 22 Jul 2025 14:36:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.157733
- Title: Benchmarking pig detection and tracking under diverse and challenging conditions
- Title(参考訳): 種々かつ困難な条件下でのブタ検出と追跡のベンチマーク
- Authors: Jonathan Henrich, Christian Post, Maximilian Zilke, Parth Shiroya, Emma Chanut, Amir Mollazadeh Yamchi, Ramin Yahyapour, Thomas Kneib, Imke Traulsen,
- Abstract要約: オブジェクト検出のためのPigDetectと、マルチオブジェクト追跡のためのPigTrackの2つのデータセットをキュレートした。
対象物検出では,ランダムなサンプル画像のみを用いて達成可能なものよりも,困難なトレーニング画像により検出が向上することを示す。
マルチオブジェクト追跡において,SORTに基づく手法は,エンドツーエンドのトレーニング可能なモデルに比べて優れた検出性能が得られることを示した。
- 参考スコア(独自算出の注目度): 1.865175170209582
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To ensure animal welfare and effective management in pig farming, monitoring individual behavior is a crucial prerequisite. While monitoring tasks have traditionally been carried out manually, advances in machine learning have made it possible to collect individualized information in an increasingly automated way. Central to these methods is the localization of animals across space (object detection) and time (multi-object tracking). Despite extensive research of these two tasks in pig farming, a systematic benchmarking study has not yet been conducted. In this work, we address this gap by curating two datasets: PigDetect for object detection and PigTrack for multi-object tracking. The datasets are based on diverse image and video material from realistic barn conditions, and include challenging scenarios such as occlusions or bad visibility. For object detection, we show that challenging training images improve detection performance beyond what is achievable with randomly sampled images alone. Comparing different approaches, we found that state-of-the-art models offer substantial improvements in detection quality over real-time alternatives. For multi-object tracking, we observed that SORT-based methods achieve superior detection performance compared to end-to-end trainable models. However, end-to-end models show better association performance, suggesting they could become strong alternatives in the future. We also investigate characteristic failure cases of end-to-end models, providing guidance for future improvements. The detection and tracking models trained on our datasets perform well in unseen pens, suggesting good generalization capabilities. This highlights the importance of high-quality training data. The datasets and research code are made publicly available to facilitate reproducibility, re-use and further development.
- Abstract(参考訳): 畜産における動物福祉と効果的な管理を確保するためには、個人の行動を監視することが不可欠である。
監視タスクは従来、手動で実施されてきたが、機械学習の進歩により、個人化された情報をますます自動化された方法で収集することが可能になった。
これらの方法の中心は、空間を横断する動物(物体検出)と時間(複数物体追跡)の局在である。
豚農業におけるこれらの2つの課題について広範な研究が行われたが、体系的なベンチマーク研究はまだ行われていない。
本研究では、オブジェクト検出のためのPigDetectと、マルチオブジェクト追跡のためのPigTrackの2つのデータセットをキュレートすることで、このギャップに対処する。
データセットは、現実的な納屋条件からの多様な画像とビデオ素材に基づいており、閉塞や視界の悪いといった困難なシナリオを含んでいる。
物体検出では,ランダムにサンプリングした画像だけで達成可能なもの以上の検出性能が向上することを示す。
異なるアプローチを比較すると、最先端のモデルではリアルタイムの代替よりも検出品質が大幅に向上していることがわかった。
マルチオブジェクト追跡において,SORTに基づく手法は,エンドツーエンドのトレーニング可能なモデルに比べて優れた検出性能が得られることを示した。
しかし、エンド・ツー・エンドのモデルはより優れたアソシエーション性能を示しており、将来強力な代替品になる可能性があることを示唆している。
また、エンド・ツー・エンドモデルの特徴的障害事例を調査し、今後の改善に向けたガイダンスを提供する。
データセットでトレーニングされた検出と追跡モデルは、目に見えないペンでうまく機能し、優れた一般化能力を示唆している。
これは、高品質なトレーニングデータの重要性を強調します。
データセットと研究コードは、再現性、再利用、さらなる開発を容易にするために公開されています。
関連論文リスト
- Learning Using Privileged Information for Litter Detection [0.6390468088226494]
本研究では,特権情報とディープラーニング物体検出を組み合わせた新しい手法を提案する。
提案手法は,広く用いられている5つの物体検出モデルにまたがって評価する。
以上の結果から, この手法は, ごみ検出の実用化に有効であることが示唆された。
論文 参考訳(メタデータ) (2025-08-06T06:46:14Z) - A model-agnostic active learning approach for animal detection from camera traps [6.521571185874872]
本稿では,カメラトラップが捉えた動物検出のためのモデルに依存しない能動学習手法を提案する。
提案手法は,オブジェクトベースと画像ベースの両方のサンプルの不確実性と多様性を,アクティブな学習サンプル選択プロセスに統合する。
論文 参考訳(メタデータ) (2025-07-09T04:36:59Z) - Consistent multi-animal pose estimation in cattle using dynamic Kalman filter based tracking [0.0]
KeySORTは、トラックレットをバウンディングボックスフリーで構築するための適応カルマンフィルタであり、検出されたキーポイントの時間的一貫性を著しく向上する。
実験結果から,提案アルゴリズムは,精度の高い真理キーポイントの最大80%を検出できることがわかった。
論文 参考訳(メタデータ) (2025-03-13T15:15:54Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - A Model Generalization Study in Localizing Indoor Cows with COw LOcalization (COLO) dataset [0.0]
本研究は,牛肉検出用YOLOv8モデルとYOLOv9モデルの屋内フリーストール納屋環境における一般化能力について検討した。
1)照明条件やカメラアングルの変化によりモデル一般化が等しく影響を受けること,(2)高次モデル複雑性はより優れた一般化性能を保証すること,(3)関連するタスクで訓練されたカスタム初期重み付き微調整は検出タスクに常に利点をもたらすこと,の3つの主要な仮説を考察する。
論文 参考訳(メタデータ) (2024-07-29T18:49:58Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - TAB: Text-Align Anomaly Backbone Model for Industrial Inspection Tasks [12.660226544498023]
本稿では,製造領域に適したバックボーンモデルを十分に訓練するための新しい枠組みを提案する。
本手法では,正常な状態と異常な状態に対する視覚的,テキスト的に整列した埋め込み空間を同時に検討する。
その結果、事前訓練されたバックボーンは、工業的な下流タスクのパフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2023-12-15T01:37:29Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - SuperAnimal pretrained pose estimation models for behavioral analysis [42.206265576708255]
行動の定量化は神経科学、獣医学、動物保護活動など様々な応用において重要である。
我々は、SuperAnimalと呼ばれる新しい手法で統一基盤モデルを開発するための一連の技術革新を提案する。
論文 参考訳(メタデータ) (2022-03-14T18:46:57Z) - Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking [137.26381337333552]
本研究では,十分なトレーニングデータを合成できるCrop-Transform-Paste演算を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカーは人間のアノテーションなしで日常的に訓練することができる。
論文 参考訳(メタデータ) (2021-06-21T07:40:34Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - Pretrained equivariant features improve unsupervised landmark discovery [69.02115180674885]
我々は、この課題を克服する2段階の教師なしアプローチを、強力なピクセルベースの特徴を初めて学習することによって定式化する。
本手法は,いくつかの難解なランドマーク検出データセットにおいて最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-04-07T05:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。