論文の概要: Vision-based Behavioral Recognition of Novelty Preference in Pigs
- arxiv url: http://arxiv.org/abs/2106.12181v1
- Date: Wed, 23 Jun 2021 06:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 15:22:12.209205
- Title: Vision-based Behavioral Recognition of Novelty Preference in Pigs
- Title(参考訳): 視覚に基づく豚の新規選好の行動認識
- Authors: Aniket Shirke, Rebecca Golden, Mrinal Gautam, Angela Green-Miller,
Matthew Caesar, Ryan N. Dilger
- Abstract要約: 研究データの行動スコアリングは、ドメイン固有のメトリクスを抽出するために重要であるが、人間の労働力を用いて膨大な量の情報を分析する能力にボトルネックがある。
ディープラーニングは、このボトルネックを緩和するための重要な進歩として広く見なされている。
我々は,手動スコアリングのプロセスを緩和するために,ディープラーニングを活用できる分野を1つ同定する。
- 参考スコア(独自算出の注目度): 1.837722971703011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Behavioral scoring of research data is crucial for extracting domain-specific
metrics but is bottlenecked on the ability to analyze enormous volumes of
information using human labor. Deep learning is widely viewed as a key
advancement to relieve this bottleneck. We identify one such domain, where deep
learning can be leveraged to alleviate the process of manual scoring. Novelty
preference paradigms have been widely used to study recognition memory in pigs,
but analysis of these videos requires human intervention. We introduce a subset
of such videos in the form of the 'Pig Novelty Preference Behavior' (PNPB)
dataset that is fully annotated with pig actions and keypoints. In order to
demonstrate the application of state-of-the-art action recognition models on
this dataset, we compare LRCN, C3D, and TSM on the basis of various analytical
metrics and discuss common pitfalls of the models. Our methods achieve an
accuracy of 93% and a mean Average Precision of 96% in estimating piglet
behavior.
We open-source our code and annotated dataset at
https://github.com/AIFARMS/NOR-behavior-recognition
- Abstract(参考訳): 研究データの行動スコアリングは、ドメイン固有のメトリクスを抽出するために重要であるが、人間の労働力を用いて膨大な量の情報を分析する能力にボトルネックがある。
ディープラーニングは、このボトルネックを緩和するための重要な進歩と見なされている。
我々は,手動スコアリングのプロセスを緩和するために,ディープラーニングを活用できる分野を1つ同定する。
新規嗜好のパラダイムはブタの認知記憶の研究に広く用いられているが、これらのビデオの分析には人間の介入が必要である。
ブタの行動とキーポイントを完全に注釈付けした 'Pig Novelty Preference Behavior' (PNPB) データセットの形式で,このようなビデオのサブセットを紹介する。
本データセットにおける最先端の行動認識モデルの適用例を示すために,様々な分析指標に基づいてlrcn,c3d,tsmを比較し,モデルの落とし穴について考察する。
豚の行動推定における平均精度は93%,平均精度は96%であった。
コードと注釈付きデータセットをhttps://github.com/AIFARMS/NOR-behavior-recognitionでオープンソース化しました。
関連論文リスト
- Model Evaluation for Domain Identification of Unknown Classes in
Open-World Recognition: A Proposal [0.0]
オープンワールド認識(OWR)は、未知を拒絶する機械学習モデルに能力を与える新興分野である。
本研究では,未知のドメイン内(ID)と未知のドメイン外(OOD)を分離するモデルの性能を評価するための評価プロトコルを提案する。
私たちは、ゴミ、食べ物、犬、植物、鳥の5つの異なる領域を実験しました。
論文 参考訳(メタデータ) (2023-12-09T03:54:25Z) - Parsing is All You Need for Accurate Gait Recognition in the Wild [51.206166843375364]
本稿では,GPS(Gait Parsing Sequence)という新しい歩行表現を提案する。
GPSは、ビデオフレームから抽出された微細な人間のセグメンテーションのシーケンスなので、より高い情報エントロピーを持つ。
また,ParsingGaitという,新しいパーシングに基づく歩行認識フレームワークを提案する。
実験結果から,GPS表現による精度の向上とParsingGaitの優越性が示唆された。
論文 参考訳(メタデータ) (2023-08-31T13:57:38Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Combining human parsing with analytical feature extraction and ranking
schemes for high-generalization person reidentification [0.0]
近年,科学と社会の両面での重要性から,人物再識別(re-ID)が注目されている。
機械学習、特にDeep Learning (DL)は、研究者がベンチマークデータセットで前例のない精度のレベルを達成できるようにする主要なRe-idツールとなっている。
本稿では,高一般化の可能性を示す訓練可能なパラメータを含まないモデルを提案する。
論文 参考訳(メタデータ) (2022-07-28T17:22:48Z) - Towards Individual Grevy's Zebra Identification via Deep 3D Fitting and
Metric Learning [2.004276260443012]
本稿では,1つのパイプラインにおける種検出,3次元モデルフィッティング,およびメートル法学習の深層学習技術を組み合わせて,個体識別を行う。
SMALSTデータセットの小さな研究で、3Dモデルフィッティングの使用は確かに性能に有益であることを示す。
3D装着モデルのバックプロジェクションテクスチャは、2Dバウンディングボックスアプローチと比較して識別精度を48.0%から56.8%に改善した。
論文 参考訳(メタデータ) (2022-06-05T20:44:54Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z) - Constructing a Highlight Classifier with an Attention Based LSTM Neural
Network [0.0]
市場研究者は、関連する部分を特定するために、消費者調査ビデオの大部分を手作業でレビューする。
本研究では,教師付き学習モデルに基づくNLPに基づくハイライト識別と抽出のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-12T15:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。