論文の概要: Occlusion-Resistant Instance Segmentation of Piglets in Farrowing Pens
Using Center Clustering Network
- arxiv url: http://arxiv.org/abs/2206.01942v1
- Date: Sat, 4 Jun 2022 08:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:23:49.180306
- Title: Occlusion-Resistant Instance Segmentation of Piglets in Farrowing Pens
Using Center Clustering Network
- Title(参考訳): 中心クラスタリングネットワークを用いた狭めペンにおける豚の排卵抵抗性インスタンスセグメンテーション
- Authors: Endai Huang, Axiu Mao, Yongjian Wu, Haiming Gan, Maria Camila
Ceballos, Thomas D. Parsons, Junhui Hou, Kai Liu
- Abstract要約: 本稿では,CClusnet-Inseg と呼ばれるインスタンスセグメンテーションのための新しい Center Clustering Network を提案する。
CClusnet-Insegは、各ピクセルを使ってオブジェクト中心を予測し、これらの中心をトレースし、クラスタリング結果に基づいてマスクを形成する。
6本のペンから収集した6本の動画から4600枚の画像を抽出し、その方法の訓練と検証を行った。
- 参考スコア(独自算出の注目度): 48.42863035798351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision enables the development of new approaches to monitor the
behavior, health, and welfare of animals. Instance segmentation is a
high-precision method in computer vision for detecting individual animals of
interest. This method can be used for in-depth analysis of animals, such as
examining their subtle interactive behaviors, from videos and images. However,
existing deep-learning-based instance segmentation methods have been mostly
developed based on public datasets, which largely omit heavy occlusion
problems; therefore, these methods have limitations in real-world applications
involving object occlusions, such as farrowing pen systems used on pig farms in
which the farrowing crates often impede the sow and piglets. In this paper, we
propose a novel occlusion-resistant Center Clustering Network for instance
segmentation, dubbed as CClusnet-Inseg. Specifically, CClusnet-Inseg uses each
pixel to predict object centers and trace these centers to form masks based on
clustering results, which consists of a network for segmentation and center
offset vector map, Density-Based Spatial Clustering of Applications with Noise
(DBSCAN) algorithm, Centers-to-Mask (C2M) and Remain-Centers-to-Mask (RC2M)
algorithms, and a pseudo-occlusion generator (POG). In all, 4,600 images were
extracted from six videos collected from six farrowing pens to train and
validate our method. CClusnet-Inseg achieves a mean average precision (mAP) of
83.6; it outperformed YOLACT++ and Mask R-CNN, which had mAP values of 81.2 and
74.7, respectively. We conduct comprehensive ablation studies to demonstrate
the advantages and effectiveness of core modules of our method. In addition, we
apply CClusnet-Inseg to multi-object tracking for animal monitoring, and the
predicted object center that is a conjunct output could serve as an
occlusion-resistant representation of the location of an object.
- Abstract(参考訳): コンピュータビジョンは、動物の行動、健康、福祉を監視する新しいアプローチの開発を可能にする。
インスタンスセグメンテーション(インスタンスセグメンテーション)は、コンピュータビジョンにおける個々の動物を検知するための高精度な方法である。
この方法は、ビデオや画像から、微妙なインタラクティブな振る舞いを調べるなど、動物の詳細な分析に使用できる。
しかし、既存のディープラーニングベースのインスタンスセグメンテーション手法は、主に公開データセットに基づいて開発されており、重いオクルージョンの問題をほとんど排除している。
本稿では,cclusnet-insegと呼ばれるセグメント化のための新しい咬合抵抗型センタークラスタリングネットワークを提案する。
具体的には、cclusnet-insegは各ピクセルを使用してオブジェクトセンタを予測し、これらのセンタを追跡し、クラスタリング結果に基づいてマスクを形成する。これは、セグメンテーションとセンタオフセットベクトルマップのためのネットワーク、ノイズ(dbscan)アルゴリズムを用いたアプリケーションの密度ベースの空間クラスタリング、center-to-mask(c2m)とretain-centers-to-mask(rc2m)アルゴリズム、およびpseudo-occlusion generator(pog)で構成される。
6本のペンから収集した6本の動画から4600枚の画像を抽出し、その方法の訓練と検証を行った。
CClusnet-Insegは平均平均mAPが83.6で、それぞれ81.2と74.7のmAP値を持つYOLACT++とMask R-CNNを上回っている。
本手法のコアモジュールの長所と有効性を示すため,包括的アブレーション研究を行う。
さらに,動物モニタリングのためのマルチオブジェクト追跡にcclusnet-insegを適用し,結束アウトプットである予測対象センタを物体の位置のオクルージョン耐性表現として用いることができた。
関連論文リスト
- Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Multi-spectral Class Center Network for Face Manipulation Detection and Localization [52.569170436393165]
顔の操作検出と局所化のための新しいマルチスペクトル・クラス・センター・ネットワーク(MSCCNet)を提案する。
周波数帯域の異なる特徴に基づき、MSCCモジュールはマルチスペクトルクラスセンターを収集し、ピクセル対クラス関係を計算する。
多スペクトルクラスレベルの表現を適用することで、偽画像の操作された領域に敏感な視覚概念の意味情報を抑えることができる。
論文 参考訳(メタデータ) (2023-05-18T08:09:20Z) - Robust Representation Learning by Clustering with Bisimulation Metrics
for Visual Reinforcement Learning with Distractions [9.088460902782547]
Bisimulation Metrics (CBM) によるクラスタリングは、潜在空間における視覚的観察をグループ化することで、堅牢な表現を学習する。
CBMは,(1)実測距離を学習プロトタイプと測定することで観測をグループ化すること,(2)現在のクラスタ割り当てに従ってプロトタイプの集合を学習すること,の2つのステップを交互に行う。
実験により、CBMは一般的なビジュアルRLアルゴリズムのサンプル効率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-02-12T13:27:34Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - Multiscale Convolutional Transformer with Center Mask Pretraining for
Hyperspectral Image Classificationtion [14.33259265286265]
本稿では,空間スペクトル情報の効率的な抽出を実現するために,高スペクトル画像(HSI)のための高速多スケール畳み込みモジュールを提案する。
マスクオートエンコーダと同様に、我々の事前学習法は、エンコーダ内の中央画素の対応するトークンのみをマスクし、残りのトークンをデコーダに入力し、中央画素のスペクトル情報を再構成する。
論文 参考訳(メタデータ) (2022-03-09T14:42:26Z) - SMAC-Seg: LiDAR Panoptic Segmentation via Sparse Multi-directional
Attention Clustering [1.1470070927586016]
学習可能なスパースな多方向アテンションクラスタリングを複数スケールのフォアグラウンドインスタンスに提示する。
SMAC-Segはリアルタイムクラスタリングベースのアプローチであり、インスタンスをセグメント化する複雑な提案ネットワークを取り除く。
実験の結果,SMAC-Segはリアルタイムにデプロイ可能なネットワークにおいて,最先端の性能を実現していることがわかった。
論文 参考訳(メタデータ) (2021-08-31T02:25:01Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Robust Instance Segmentation through Reasoning about Multi-Object
Occlusion [9.536947328412198]
本稿では,隠蔽に頑健な多目的インスタンスセグメンテーションのためのディープネットワークを提案する。
私たちの研究は、神経機能アクティベーションの生成モデルを学習し、オクローダの発見に役立てています。
特に、オブジェクトクラスとそのインスタンスおよびオクルーダーセグメンテーションのフィードフォワード予測を得る。
論文 参考訳(メタデータ) (2020-12-03T17:41:55Z) - Joint Object Contour Points and Semantics for Instance Segmentation [1.2117737635879038]
本稿では,物体境界に対するニューラルネットワークの注意を促すことを目的としたMask Point R-CNNを提案する。
具体的には、従来の人間のキーポイント検出タスクを、任意のオブジェクトの輪郭点検出に革新的に拡張する。
その結果、モデルはオブジェクトの端に対してより敏感になり、より幾何学的な特徴を捉えることができる。
論文 参考訳(メタデータ) (2020-08-02T11:11:28Z) - Spatial and spectral deep attention fusion for multi-channel speech
separation using deep embedding features [60.20150317299749]
マルチチャネルディープクラスタリング(MDC)は、音声分離に優れた性能を得た。
本研究では,スペクトルおよび空間的特徴の重みを動的に制御し,それらを深く結合するディープ・アテンション・フュージョン法を提案する。
実験結果から,提案手法はMDCベースラインよりも優れ,理想的なバイナリマスク(IBM)よりも優れていた。
論文 参考訳(メタデータ) (2020-02-05T03:49:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。