論文の概要: Tracking Grow-Finish Pigs Across Large Pens Using Multiple Cameras
- arxiv url: http://arxiv.org/abs/2111.10971v1
- Date: Mon, 22 Nov 2021 03:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:45:27.819694
- Title: Tracking Grow-Finish Pigs Across Large Pens Using Multiple Cameras
- Title(参考訳): 複数のカメラを用いた大型ペンでの豚の追跡
- Authors: Aniket Shirke, Aziz Saifuddin, Achleshwar Luthra, Jiangong Li, Tawni
Williams, Xiaodan Hu, Aneesh Kotnana, Okan Kocabalkanli, Narendra Ahuja,
Angela Green-Miller, Isabella Condotta, Ryan N. Dilger, Matthew Caesar
- Abstract要約: 動物を効果的にモニタリングする新しいリアルタイムソリューションを開発した。
マルチオブジェクト追跡精度は65.0%と54.3%である。
コードと注釈付きデータセットをhttps://github.com/AIFARMS/multi-camera-pig-tracking.comでオープンソース化しました。
- 参考スコア(独自算出の注目度): 8.152281664389776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing demand for meat products combined with farm labor shortages has
resulted in a need to develop new real-time solutions to monitor animals
effectively. Significant progress has been made in continuously locating
individual pigs using tracking-by-detection methods. However, these methods
fail for oblong pens because a single fixed camera does not cover the entire
floor at adequate resolution. We address this problem by using multiple
cameras, placed such that the visual fields of adjacent cameras overlap, and
together they span the entire floor. Avoiding breaks in tracking requires
inter-camera handover when a pig crosses from one camera's view into that of an
adjacent camera. We identify the adjacent camera and the shared pig location on
the floor at the handover time using inter-view homography. Our experiments
involve two grow-finish pens, housing 16-17 pigs each, and three RGB cameras.
Our algorithm first detects pigs using a deep learning-based object detection
model (YOLO) and creates their local tracking IDs using a multi-object tracking
algorithm (DeepSORT). We then use inter-camera shared locations to match
multiple views and generate a global ID for each pig that holds throughout
tracking. To evaluate our approach, we provide five two-minutes long video
sequences with fully annotated global identities. We track pigs in a single
camera view with a Multi-Object Tracking Accuracy and Precision of 65.0% and
54.3% respectively and achieve a Camera Handover Accuracy of 74.0%. We
open-source our code and annotated dataset at
https://github.com/AIFARMS/multi-camera-pig-tracking
- Abstract(参考訳): 肉製品の需要増加と農業労働不足が相まって、動物を効果的に監視するための新しいリアルタイムソリューションを開発する必要がある。
追跡・検出法を用いて豚の個体を連続的に同定する手法は有意な進歩を遂げている。
しかし、固定式カメラが床全体を十分な解像度で覆わないため、この方法は長尺のペンでは失敗する。
我々は、複数のカメラを用いて、隣接するカメラの視野が重なり合うように配置し、同時に床全体にまたがるこの問題に対処する。
追跡の中断を避けるには、豚がカメラの視界から隣のカメラの視界に交差するときに、カメラ間のハンドオーバが必要となる。
視線間ホログラフィーを用いて,隣り合うカメラと共有豚の位置をハンドオーバ時間に同定した。
実験には16~17頭の豚を収容する2つの未完成ペンと、3台のrgbカメラが含まれています。
提案アルゴリズムは,まず深層学習に基づく物体検出モデル(YOLO)を用いてブタを検知し,多目的追跡アルゴリズム(DeepSORT)を用いて局所追跡IDを生成する。
次に、カメラ間の共有ロケーションを使用して、複数のビューにマッチし、トラッキング全体を保持する各豚のグローバルIDを生成します。
提案手法を評価するために,完全アノテートされたグローバルidを持つ5つの2分間の映像シーケンスを提供する。
複数被写体追跡精度65.0%,精度54.3%の1カメラビューで豚を追跡し,74.0%のカメラハンドオーバ精度を達成する。
コードと注釈付きデータセットをhttps://github.com/AIFARMS/multi-camera-pig-trackingでオープンソース化しました。
関連論文リスト
- Multi-Camera Multi-Person Association using Transformer-Based Dense Pixel Correspondence Estimation and Detection-Based Masking [1.0937094979510213]
マルチカメラアソシエーション (Multi-camera Association, MCA) は、カメラビューを通してオブジェクトや個人を識別するタスクである。
我々は,高密度画素対応推定に基づく新しいマルチカメラマルチターゲットアソシエーションアルゴリズムについて検討する。
以上の結果から,このアルゴリズムは互いに近接するカメラ対の歩行者と極めてよく関連していることがわかった。
論文 参考訳(メタデータ) (2024-08-17T20:58:16Z) - Enhancing Multi-Camera People Tracking with Anchor-Guided Clustering and
Spatio-Temporal Consistency ID Re-Assignment [22.531044994763487]
本稿では,アンカークラスタリング誘導を用いたマルチカメラによる複数人物追跡手法を提案する。
提案手法は,各個人固有の重要な特徴を特定することによって,トラッキングの精度を向上させることを目的としている。
この手法は, 合成データと実世界のデータの両方を扱う上で, 堅牢性と有効性を示した。
論文 参考訳(メタデータ) (2023-04-19T07:38:15Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Graph Neural Networks for Cross-Camera Data Association [3.490148531239259]
多くのマルチカメラコンピュータビジョンタスクには、クロスカメラ画像データアソシエーションが不可欠である。
本稿では,グローバルソリューションに着目したクロスカメラデータアソシエーションのための効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-17T09:52:39Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Wide-Area Crowd Counting: Multi-View Fusion Networks for Counting in
Large Scenes [50.744452135300115]
マルチビュー・クラウドカウントのためのディープニューラルネットワークフレームワークを提案する。
提案手法は,他のマルチビューカウントベースラインと比較して,最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-12-02T03:20:30Z) - Multiview Detection with Feature Perspective Transformation [59.34619548026885]
本稿では,新しいマルチビュー検出システムMVDetを提案する。
我々は,平面上に特徴写像を投影することで,多視点情報を集約するアンカーフリーアプローチを採っている。
私たちのモデル全体がエンドツーエンドで学習可能で、標準のWildtrackデータセットで88.2%のMODAを実現しています。
論文 参考訳(メタデータ) (2020-07-14T17:58:30Z) - Efficient Pig Counting in Crowds with Keypoints Tracking and
Spatial-aware Temporal Response Filtering [32.01378335478393]
既存の方法は、単一画像を用いたブタの計数にのみ焦点をあてた。
単一像の視野は非常に限られており、大型の豚群家に対する豚数測定の要件を満たせなかった。
本研究では,1台の単眼魚眼カメラと検査ロボットを用いたリアルタイム自動ブタ計数システムを提案する。
論文 参考訳(メタデータ) (2020-05-27T02:17:54Z) - Real-time 3D Deep Multi-Camera Tracking [13.494550690138775]
本稿では,DMCT(Deep Multi-Camera Tracking)を提案する。
本システムは,リアルタイム性能を維持しつつ,最先端のトラッキング結果を実現する。
論文 参考訳(メタデータ) (2020-03-26T06:08:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。