論文の概要: Efficient Pig Counting in Crowds with Keypoints Tracking and
Spatial-aware Temporal Response Filtering
- arxiv url: http://arxiv.org/abs/2005.13131v1
- Date: Wed, 27 May 2020 02:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:52:12.791008
- Title: Efficient Pig Counting in Crowds with Keypoints Tracking and
Spatial-aware Temporal Response Filtering
- Title(参考訳): キーポイント追跡と空間認識時間応答フィルタリングを用いた群衆の効率的な豚数計測
- Authors: Guang Chen, Shiwen Shen, Longyin Wen, Si Luo, Liefeng Bo
- Abstract要約: 既存の方法は、単一画像を用いたブタの計数にのみ焦点をあてた。
単一像の視野は非常に限られており、大型の豚群家に対する豚数測定の要件を満たせなかった。
本研究では,1台の単眼魚眼カメラと検査ロボットを用いたリアルタイム自動ブタ計数システムを提案する。
- 参考スコア(独自算出の注目度): 32.01378335478393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pig counting is a crucial task for large-scale pig farming, which is usually
completed by human visually. But this process is very time-consuming and
error-prone. Few studies in literature developed automated pig counting method.
Existing methods only focused on pig counting using single image, and its
accuracy is challenged by several factors, including pig movements, occlusion
and overlapping. Especially, the field of view of a single image is very
limited, and could not meet the requirements of pig counting for large pig
grouping houses. To that end, we presented a real-time automated pig counting
system in crowds using only one monocular fisheye camera with an inspection
robot. Our system showed that it produces accurate results surpassing human.
Our pipeline began with a novel bottom-up pig detection algorithm to avoid
false negatives due to overlapping, occlusion and deformation of pigs. A deep
convolution neural network (CNN) is designed to detect keypoints of pig body
part and associate the keypoints to identify individual pigs. After that, an
efficient on-line tracking method is used to associate pigs across video
frames. Finally, a novel spatial-aware temporal response filtering (STRF)
method is proposed to predict the counts of pigs, which is effective to
suppress false positives caused by pig or camera movements or tracking
failures. The whole pipeline has been deployed in an edge computing device, and
demonstrated the effectiveness.
- Abstract(参考訳): 豚の計数は大規模な養豚にとって重要な課題であり、通常は人間の視覚で完了する。
しかし、このプロセスは非常に時間がかかり、エラーが発生しやすい。
文学の研究で豚の自動計数法を開発したものは少ない。
既存の方法では豚の計数にのみ焦点をあてており、その精度は豚の動き、咬合、重なりなどいくつかの要因によって疑問視されている。
特に、単一の画像の視野は非常に限られており、大型の豚群家に対する豚のカウントの要件を満たしていなかった。
そこで我々は,1台の単眼魚眼カメラと検査ロボットを用いたリアルタイム自動ブタ計数システムについて紹介した。
我々のシステムは、人間を超える正確な結果をもたらすことを示した。
我々のパイプラインは豚の重複、咬合、変形による偽陰性を回避する新しいボトムアップ・ピッグ検出アルゴリズムから始まった。
深層畳み込みニューラルネットワーク(CNN)は、ブタの身体部分のキーポイントを検出し、キーポイントを関連付けて個々のブタを特定するように設計されている。
その後、ビデオフレーム間で豚を関連付けるために、効率的なオンライン追跡方法が用いられる。
最後に、豚やカメラの動きによる偽陽性の抑制や障害の追跡に有効である豚の数を予測するために、空間認識型時間応答フィルタリング(STRF)法を提案する。
パイプライン全体がエッジコンピューティングデバイスにデプロイされ、その効果が実証された。
関連論文リスト
- Accurate Real-time Polyp Detection in Videos from Concatenation of
Latent Features Extracted from Consecutive Frames [5.2009074009536524]
畳み込みニューラルネットワーク(CNN)は入力画像の小さな変化に対して脆弱である。
CNNベースのモデルは、連続したフレームに現れる同じポリプを見逃す可能性がある。
CNNを用いたエンコーダデコーダモデルの効率的な特徴結合法を提案する。
論文 参考訳(メタデータ) (2023-03-10T11:51:22Z) - Occlusion-Resistant Instance Segmentation of Piglets in Farrowing Pens
Using Center Clustering Network [48.42863035798351]
本稿では,CClusnet-Inseg と呼ばれるインスタンスセグメンテーションのための新しい Center Clustering Network を提案する。
CClusnet-Insegは、各ピクセルを使ってオブジェクト中心を予測し、これらの中心をトレースし、クラスタリング結果に基づいてマスクを形成する。
6本のペンから収集した6本の動画から4600枚の画像を抽出し、その方法の訓練と検証を行った。
論文 参考訳(メタデータ) (2022-06-04T08:43:30Z) - Direct Dense Pose Estimation [138.56533828316833]
複雑な人間のポーズ推定は、RGB画像と人体の表面との密接な対応を学習する問題である。
従来より密集したポーズ推定手法は、すべてMask R-CNNフレームワークに基づいており、まず各人物のバウンディングボックスを識別しようとするトップダウン方式で動作している。
そこで我々は,DDP (Direct Dense Pose) という,高密度ポーズ推定問題の解法を提案する。
論文 参考訳(メタデータ) (2022-04-04T06:14:38Z) - Batch Normalization Tells You Which Filter is Important [49.903610684578716]
我々は,事前学習したCNNのBNパラメータに基づいて,各フィルタの重要性を評価することによって,簡易かつ効果的なフィルタ刈取法を提案する。
CIFAR-10とImageNetの実験結果から,提案手法が優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-12-02T12:04:59Z) - Tracking Grow-Finish Pigs Across Large Pens Using Multiple Cameras [8.152281664389776]
動物を効果的にモニタリングする新しいリアルタイムソリューションを開発した。
マルチオブジェクト追跡精度は65.0%と54.3%である。
コードと注釈付きデータセットをhttps://github.com/AIFARMS/multi-camera-pig-tracking.comでオープンソース化しました。
論文 参考訳(メタデータ) (2021-11-22T03:29:15Z) - Livestock Monitoring with Transformer [4.298326853567677]
我々は,集団飼育豚を対象としたエンドツーエンド行動監視システムを開発し,インスタンスレベルのセグメンテーション,トラッキング,行動認識,再識別タスクを同時実施する。
本稿では, トランスフォーマーアーキテクチャを用いて, グループ豚のインスタンスレベルの埋め込みを学習する, エンドツーエンド多目的家畜監視フレームワークであるStarformerについて紹介する。
論文 参考訳(メタデータ) (2021-11-01T10:03:49Z) - Vision-based Behavioral Recognition of Novelty Preference in Pigs [1.837722971703011]
研究データの行動スコアリングは、ドメイン固有のメトリクスを抽出するために重要であるが、人間の労働力を用いて膨大な量の情報を分析する能力にボトルネックがある。
ディープラーニングは、このボトルネックを緩和するための重要な進歩として広く見なされている。
我々は,手動スコアリングのプロセスを緩和するために,ディープラーニングを活用できる分野を1つ同定する。
論文 参考訳(メタデータ) (2021-06-23T06:10:34Z) - Unsupervised Visual Representation Learning by Tracking Patches in Video [88.56860674483752]
本研究では,コンピュータビジョンシステムのプロキシタスクとしてトラッキングを用いて視覚表現を学習することを提案する。
子どもたちがプレイするキャッチゲームをベースに、視覚表現を学ぶ3D-CNNモデルのためのキャッチ・ザ・パッチ(CtP)ゲームを設計します。
論文 参考訳(メタデータ) (2021-05-06T09:46:42Z) - Panoptic Instance Segmentation on Pigs [0.860255319568951]
この研究は、比較的新しい汎視的セグメンテーションの定義に従い、個々のブタのピクセル正確なセグメンテーションを目指している。
セマンティックセグメンテーションのためのニューラルネットワークのフレームワーク、異なるネットワークヘッド、および後処理方法を示す。
本手法は,1000枚の手書き画像からなる特殊なデータセットを用いてテストし,約95%の精度で検出を行う。
論文 参考訳(メタデータ) (2020-05-21T07:36:03Z) - Pixel-in-Pixel Net: Towards Efficient Facial Landmark Detection in the
Wild [104.61677518999976]
顔のランドマークを検出するために,Pixel-in-Pixel Net(PIPNet)を提案する。
提案モデルは,熱マップ回帰に基づく新しい検出ヘッドを備える。
PIPNetのクロスドメイン一般化能力をさらに向上するため,カリキュラムによる自己学習を提案する。
論文 参考訳(メタデータ) (2020-03-08T12:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。