論文の概要: Equine Pain Behavior Classification via Self-Supervised Disentangled
Pose Representation
- arxiv url: http://arxiv.org/abs/2108.13258v1
- Date: Mon, 30 Aug 2021 14:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:34:38.088927
- Title: Equine Pain Behavior Classification via Self-Supervised Disentangled
Pose Representation
- Title(参考訳): 自己監督型アンタングルポス表現によるクイン痛行動分類
- Authors: Maheen Rashid, Sofia Broom\'e, Katrina Ask, Elin Hernlund, Pia Haubro
Andersen, Hedvig Kjellstr\"om, Yong Jae Lee
- Abstract要約: 馬の痛みのタイムリーな検出は、馬の福祉にとって重要である。
馬は顔や体の動きを通して痛みを表現しているが、見慣れない人間の観察者から痛みの兆候を隠している可能性がある。
本稿では,未保存馬と弱い馬の映像を用いた実用的馬の痛み分類システムを提案する。
- 参考スコア(独自算出の注目度): 21.702208866220236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Timely detection of horse pain is important for equine welfare. Horses
express pain through their facial and body behavior, but may hide signs of pain
from unfamiliar human observers. In addition, collecting visual data with
detailed annotation of horse behavior and pain state is both cumbersome and not
scalable. Consequently, a pragmatic equine pain classification system would use
video of the unobserved horse and weak labels. This paper proposes such a
method for equine pain classification by using multi-view surveillance video
footage of unobserved horses with induced orthopaedic pain, with temporally
sparse video level pain labels. To ensure that pain is learned from horse body
language alone, we first train a self-supervised generative model to
disentangle horse pose from its appearance and background before using the
disentangled horse pose latent representation for pain classification. To make
best use of the pain labels, we develop a novel loss that formulates pain
classification as a multi-instance learning problem. Our method achieves pain
classification accuracy better than human expert performance with 60% accuracy.
The learned latent horse pose representation is shown to be viewpoint
covariant, and disentangled from horse appearance. Qualitative analysis of pain
classified segments shows correspondence between the pain symptoms identified
by our model, and equine pain scales used in veterinary practice.
- Abstract(参考訳): 馬の痛みのタイムリーな検出は、馬の福祉にとって重要である。
馬は顔や体の動きを通じて痛みを表現するが、不慣れな人間の観察者から痛みの兆候を隠すことがある。
加えて、馬の行動や痛み状態の詳細なアノテーションによるビジュアルデータの収集は面倒でスケーラブルではない。
したがって、実用的なウマの痛み分類システムは、観察されていない馬と弱いラベルのビデオを使用する。
本稿では, 経時的にビデオレベルの痛みラベルが乏しい整形外科的痛みを誘発する非観察馬のマルチビュー監視ビデオ映像を用いて, ウマの痛み分類法を提案する。
馬の身体言語だけで痛みが学べるようにするため,我々はまず自己教師付き生成モデルを訓練し,その外観と背景から馬のポーズを離間させ,その後,離反した馬のポーズ潜伏表現を用いて痛み分類を行う。
痛みラベルを最大限に活用するために、痛み分類をマルチインスタンス学習問題として定式化する新しい損失を開発する。
本手法は,60%の精度でヒトのエキスパート性能よりも痛み分類精度が向上する。
学習された潜伏馬のポーズ表現は、視点共変であり、馬の外観から切り離されている。
分類された痛みの質的分析は,本モデルで同定した痛み症状と,獣医の練習で使用する等痛尺度の一致を示した。
関連論文リスト
- PainSeeker: An Automated Method for Assessing Pain in Rats Through
Facial Expressions [14.003480681631226]
矯正治療を施行した6ラットの顔画像1,138枚からなるRatsPainというデータセットを提出した。
そこで我々は,ラットの表情による痛みを自動的に評価する,PainSeekerという新しい深層学習法を提案した。
PainSeekerは、顔の表情画像から、痛みの識別と頭部の堅牢な特徴を学習しやすくする、痛みに関連する顔面局所領域を探すことを目的としている。
論文 参考訳(メタデータ) (2023-11-06T15:49:11Z) - Find Someone Who: Visual Commonsense Understanding in Human-Centric
Grounding [87.39245901710079]
我々は,新しいコモンセンスタスク,Human-centric Commonsense Groundingを提案する。
モデルが個人を接地する能力をテストする。
本研究では,従来の事前学習モデルや非事前学習モデルよりも優れたコンテキストオブジェクト認識手法を強いベースラインとして設定した。
論文 参考訳(メタデータ) (2022-12-14T01:37:16Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - Intelligent Sight and Sound: A Chronic Cancer Pain Dataset [74.77784420691937]
本稿では,Intelligent Sight and Sound (ISS) 臨床試験の一環として収集された,最初の慢性ガン痛データセットを紹介する。
これまで収集されたデータは29の患者、509のスマートフォンビデオ、189,999のフレーム、そして自己報告された感情と活動の痛みのスコアから成っている。
静的画像とマルチモーダルデータを用いて、自己報告された痛みレベルを予測する。
論文 参考訳(メタデータ) (2022-04-07T22:14:37Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Chronic Pain and Language: A Topic Modelling Approach to Personal Pain
Descriptions [0.688204255655161]
慢性的な痛みは主要な健康問題として認識されており、経済だけでなく、社会や個人のレベルにも影響を及ぼす。
個人的かつ主観的な経験であるため、慢性的な痛みを純粋に有害な刺激として、外的かつ公平に経験し、説明し、解釈することは不可能である。
本稿では,慢性痛の言語記述におけるパターン認識のためのトピックモデリング手法を提案し,これらのパターンを用いて痛み経験の定量化と評価を行う。
論文 参考訳(メタデータ) (2021-09-01T14:31:16Z) - Sharing Pain: Using Domain Transfer Between Pain Types for Recognition
of Sparse Pain Expressions in Horses [1.749935196721634]
orthopedic disorderは馬の間での自閉症の一般的な原因である。
このような痛みを表す映像データを用いて、視覚的痛み認識法を訓練することは困難である。
急性侵害受容性痛みを持つ馬のデータセットから特徴を伝達することは、学習者がより複雑な整形外科的痛みを認識するのに役立つことを示す。
論文 参考訳(メタデータ) (2021-05-21T12:35:00Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Unobtrusive Pain Monitoring in Older Adults with Dementia using Pairwise
and Contrastive Training [3.7775543603998907]
高齢者では痛みが頻発するが、高齢者はしばしば痛みに対して過度に治療される。
これは、認知症を伴う認知障害のために痛みを報告できない中等度から重度の認知症を有する長期ケア居住者にとって特に当てはまります。
認知症コホートで検証された最初の完全自動化ビジョンベースの技術を紹介します。
論文 参考訳(メタデータ) (2021-01-08T23:28:30Z) - How Much Does It Hurt: A Deep Learning Framework for Chronic Pain Score
Assessment [4.463811772756938]
本稿では,慢性痛覚評価のためのエンドツーエンドのディープラーニングフレームワークを提案する。
我々のフレームワークは、長い時間軸データサンプルを短いシーケンスに分割し、Consensus Predictionを使って結果を分類する。
2つの慢性痛覚スコアデータセットを用いて,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-09-22T23:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。