論文の概要: Video-based estimation of pain indicators in dogs
- arxiv url: http://arxiv.org/abs/2209.13296v1
- Date: Tue, 27 Sep 2022 10:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 15:44:22.391981
- Title: Video-based estimation of pain indicators in dogs
- Title(参考訳): ビデオによる犬の痛み指標の推定
- Authors: Hongyi Zhu, Yasemin Salg{\i}rl{\i}, P{\i}nar Can, Durmu\c{s}
At{\i}lgan, Albert Ali Salah
- Abstract要約: この問題に対して,新しいビデオベース2ストリームディープニューラルネットワーク手法を提案する。
ビデオ上のキーポイントとRGB表現の両方から、ボディキーポイントを抽出し、プリプロセスし、特徴を計算します。
我々は、獣医が収集し、痛みの有無を注釈した、ユニークなビデオベースの犬行動データセットを提示する。
- 参考スコア(独自算出の注目度): 2.7103996289794217
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dog owners are typically capable of recognizing behavioral cues that reveal
subjective states of their dogs, such as pain. But automatic recognition of the
pain state is very challenging. This paper proposes a novel video-based,
two-stream deep neural network approach for this problem. We extract and
preprocess body keypoints, and compute features from both keypoints and the RGB
representation over the video. We propose an approach to deal with
self-occlusions and missing keypoints. We also present a unique video-based dog
behavior dataset, collected by veterinary professionals, and annotated for
presence of pain, and report good classification results with the proposed
approach. This study is one of the first works on machine learning based
estimation of dog pain state.
- Abstract(参考訳): 犬の飼い主は通常、痛みなどの主観的な状態を明らかにする行動的手がかりを認識できる。
しかし、痛み状態の自動認識は非常に難しい。
本稿では,この問題に対する新しいビデオベース2ストリーム深層ニューラルネットワーク手法を提案する。
ビデオ上のキーポイントとRGB表現の両方から、ボディキーポイントを抽出し、プリプロセスし、特徴を計算します。
自己排除と欠落するキーポイントに対処するアプローチを提案する。
また, 獣医が収集し, 痛みの有無をアノテートしたユニークなビデオベースの行動データセットを提示し, 提案手法を用いて良好な分類結果を示す。
この研究は、犬の痛み状態を機械学習で推定する最初の研究の1つである。
関連論文リスト
- Computer Vision for Primate Behavior Analysis in the Wild [60.937374400311256]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
まず、動物行動のビデオベース研究に直接関係するコンピュータビジョン問題に対する最先端の手法の調査から始める。
次に,実践的な観点からの最大の課題のひとつとして,作業効率のよい学習方法についてレビューする。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - CNN-Based Action Recognition and Pose Estimation for Classifying Animal
Behavior from Videos: A Survey [0.0]
アクション認識(Action Recognition)は、1つ以上の被験者がトリミングされたビデオで行う活動の分類であり、多くの技術の基礎を形成する。
人間の行動認識のためのディープラーニングモデルは、過去10年間に進歩してきた。
近年,深層学習に基づく行動認識を取り入れた研究への関心が高まっている。
論文 参考訳(メタデータ) (2023-01-15T20:54:44Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z) - Pain Intensity Estimation from Mobile Video Using 2D and 3D Facial
Keypoints [1.6402428190800593]
術後痛の管理は外科的治療の成功に不可欠である。
痛み管理の課題の1つは、患者の痛みレベルを正確に評価することである。
本稿では,術後患者の2Dおよび3D顔のキーポイントを分析し,痛み強度を推定するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-17T00:18:29Z) - Visual Identification of Individual Holstein-Friesian Cattle via Deep
Metric Learning [8.784100314325395]
ホルシュタイン・フリーズ産の牛は、チューリングの反応拡散系から生じたものと類似した、個々の特性の白黒のコートパターンを視覚的に示す。
この研究は、畳み込みニューラルネットワークとディープメトリック学習技術を介して、個々のホルシュタイン・フリース人の視覚的検出と生体認証を自動化するために、これらの自然なマーキングを利用する。
論文 参考訳(メタデータ) (2020-06-16T14:41:55Z) - Panoptic Instance Segmentation on Pigs [0.860255319568951]
この研究は、比較的新しい汎視的セグメンテーションの定義に従い、個々のブタのピクセル正確なセグメンテーションを目指している。
セマンティックセグメンテーションのためのニューラルネットワークのフレームワーク、異なるネットワークヘッド、および後処理方法を示す。
本手法は,1000枚の手書き画像からなる特殊なデータセットを用いてテストし,約95%の精度で検出を行う。
論文 参考訳(メタデータ) (2020-05-21T07:36:03Z) - Identifying Individual Dogs in Social Media Images [1.14219428942199]
この研究は、ペットと飼い主を対象とするソーシャルネットワークPet2Netとの共同プロジェクトの一環だ。
個々の犬を検知し、認識するために、Inception v3とSSD Inception v2アーキテクチャのトランスファーラーニングとオブジェクト検出のアプローチを組み合わせる。
個々の犬を識別すると94.59%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-03-14T21:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。