論文の概要: Monitoring Horses in Stalls: From Object to Event Detection
- arxiv url: http://arxiv.org/abs/2510.17409v1
- Date: Mon, 20 Oct 2025 10:52:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.418153
- Title: Monitoring Horses in Stalls: From Object to Event Detection
- Title(参考訳): 安定状態における馬のモニタリング:オブジェクトからイベント検出まで
- Authors: Dmitrii Galimzianov, Viacheslav Vyshegorodtsev, Ivan Nezhivykh,
- Abstract要約: 本報告では,馬や安定した場所にいる人々の検出と追跡を自動化する,視覚に基づくプロトタイプモニタリングシステムを提案する。
このシステムは YOLOv11 と BoT-SORT を利用して検出と追跡を行う。
- 参考スコア(独自算出の注目度): 0.3058685580689604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monitoring the behavior of stalled horses is essential for early detection of health and welfare issues but remains labor-intensive and time-consuming. In this study, we present a prototype vision-based monitoring system that automates the detection and tracking of horses and people inside stables using object detection and multi-object tracking techniques. The system leverages YOLOv11 and BoT-SORT for detection and tracking, while event states are inferred based on object trajectories and spatial relations within the stall. To support development, we constructed a custom dataset annotated with assistance from foundation models CLIP and GroundingDINO. The system distinguishes between five event types and accounts for the camera's blind spots. Qualitative evaluation demonstrated reliable performance for horse-related events, while highlighting limitations in detecting people due to data scarcity. This work provides a foundation for real-time behavioral monitoring in equine facilities, with implications for animal welfare and stable management.
- Abstract(参考訳): 休眠した馬の行動を監視することは、健康と福祉の問題の早期発見には不可欠であるが、労働集約的で時間を要する。
本研究では, 物体検出と多物体追跡技術を用いて, 安定地内における馬や人の検出と追跡を自動化する, 視覚に基づく監視システムのプロトタイプを提案する。
このシステムは YOLOv11 と BoT-SORT を利用して検出と追跡を行う。
開発を支援するため,基盤モデルCLIPとGroundingDINOの助けを借りて,カスタムデータセットを構築した。
システムは5つのイベントタイプを区別し、カメラの盲点を勘定する。
定性的評価は,データ不足による人検出の限界を強調しつつ,馬関連事象に対する信頼性の高い性能を示した。
この研究は、動物福祉と安定した管理に影響を及ぼすウマの施設におけるリアルタイム行動監視の基礎を提供する。
関連論文リスト
- Benchmarking pig detection and tracking under diverse and challenging conditions [1.865175170209582]
オブジェクト検出のためのPigDetectと、マルチオブジェクト追跡のためのPigTrackの2つのデータセットをキュレートした。
対象物検出では,ランダムなサンプル画像のみを用いて達成可能なものよりも,困難なトレーニング画像により検出が向上することを示す。
マルチオブジェクト追跡において,SORTに基づく手法は,エンドツーエンドのトレーニング可能なモデルに比べて優れた検出性能が得られることを示した。
論文 参考訳(メタデータ) (2025-07-22T14:36:51Z) - Classification of Cattle Behavior and Detection of Heat (Estrus) using Sensor Data [0.0]
我々は、加速度計とジャイロセンサーを備えた安価なBluetoothベースの首首首輪を設計、展開し、実際の牛のリアルタイム行動データを収集した。
ラベル付きデータセットは、同期されたCCTV映像を使用して作成され、フィード、ルミネーション、嘘などの振る舞いに注釈を付ける。
実験では,93%以上の行動分類精度,96%のエストラス検出精度が得られた。
論文 参考訳(メタデータ) (2025-06-19T15:00:23Z) - Consistent multi-animal pose estimation in cattle using dynamic Kalman filter based tracking [0.0]
KeySORTは、トラックレットをバウンディングボックスフリーで構築するための適応カルマンフィルタであり、検出されたキーポイントの時間的一貫性を著しく向上する。
実験結果から,提案アルゴリズムは,精度の高い真理キーポイントの最大80%を検出できることがわかった。
論文 参考訳(メタデータ) (2025-03-13T15:15:54Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Automated Mobility Context Detection with Inertial Signals [7.71058263701836]
本研究の主な目的は,日常の運動機能の遠隔監視のためのコンテキスト検出について検討することである。
本研究の目的は、ウェアラブル加速度計でサンプリングされた慣性信号が、歩行関連活動を屋内または屋外に分類するための信頼性の高い情報を提供するかを理解することである。
論文 参考訳(メタデータ) (2022-05-16T09:34:43Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Machine learning approaches for identifying prey handling activity in
otariid pinnipeds [12.814241588031685]
本稿では,アザラシの捕食行動の同定に焦点をあてる。
考慮すべきデータは、アザラシに直接取り付けられたデバイスによって収集された3D加速度計と深度センサーのストリームである。
機械学習(ML)アルゴリズムに基づく自動モデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T15:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。