論文の概要: Read My Ears! Horse Ear Movement Detection for Equine Affective State Assessment
- arxiv url: http://arxiv.org/abs/2505.03554v1
- Date: Tue, 06 May 2025 14:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.413164
- Title: Read My Ears! Horse Ear Movement Detection for Equine Affective State Assessment
- Title(参考訳): Equine Affective State Assessment のための馬耳運動検出
- Authors: João Alves, Pia Haubro Andersen, Rikke Gade,
- Abstract要約: 馬の映像から特定の耳のAU検出と位置決めの異なる方法について検討した。
公衆馬のビデオデータセットにおける耳の動きの有無の87.5%の分類精度を実現した。
- 参考スコア(独自算出の注目度): 3.4024783461417805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Equine Facial Action Coding System (EquiFACS) enables the systematic annotation of facial movements through distinct Action Units (AUs). It serves as a crucial tool for assessing affective states in horses by identifying subtle facial expressions associated with discomfort. However, the field of horse affective state assessment is constrained by the scarcity of annotated data, as manually labelling facial AUs is both time-consuming and costly. To address this challenge, automated annotation systems are essential for leveraging existing datasets and improving affective states detection tools. In this work, we study different methods for specific ear AU detection and localization from horse videos. We leverage past works on deep learning-based video feature extraction combined with recurrent neural networks for the video classification task, as well as a classic optical flow based approach. We achieve 87.5% classification accuracy of ear movement presence on a public horse video dataset, demonstrating the potential of our approach. We discuss future directions to develop these systems, with the aim of bridging the gap between automated AU detection and practical applications in equine welfare and veterinary diagnostics. Our code will be made publicly available at https://github.com/jmalves5/read-my-ears.
- Abstract(参考訳): EquiFACS (Equine Facial Action Coding System) は、異なるアクションユニット(AU)を通して顔の動きの体系的なアノテーションを可能にする。
不快感に関連する微妙な表情を識別することにより、馬の感情状態を評価する重要なツールとして機能する。
しかし、顔AUを手動でラベル付けすることは時間と費用がかかるため、馬の感情状態評価の分野は注釈付きデータの不足によって制約される。
この課題に対処するためには、既存のデータセットを活用し、感情状態検出ツールを改善するために、自動アノテーションシステムが不可欠である。
本研究では,馬の映像から特定の耳のAU検出と位置推定を行う方法について検討した。
我々は、ビデオ分類タスクのために、ディープラーニングに基づくビデオ特徴抽出と繰り返しニューラルネットワークを組み合わせた過去の研究と、古典的な光フローベースのアプローチを活用している。
公衆馬のビデオデータセットに耳の動きの有無を87.5%の精度で分類し,その可能性を実証した。
本稿では,自動AU検出と平等福祉と獣医学診断の実践的応用とのギャップを埋めることを目的として,これらのシステム開発に向けた今後の方向性について論じる。
私たちのコードはhttps://github.com/jmalves5/read-my-ears.comで公開されます。
関連論文リスト
- Hierarchical NeuroSymbolic Approach for Comprehensive and Explainable Action Quality Assessment [2.4554686192257424]
行動品質評価(AQA)は、人間の行動のパフォーマンスや実行を定量的に評価するためにコンピュータビジョンを適用する。
現在のアプローチはエンドツーエンドのニューラルモデルで、透明性が欠如し、主観的な人間の判断を地道として訓練する傾向がある。
本稿では、ニューラルネットワークを用いてビデオデータから解釈可能なシンボルを抽象化し、それらのシンボルに規則を適用することによって品質評価を行う、AQAのためのニューロシンボリックパラダイムを提案する。
論文 参考訳(メタデータ) (2024-03-20T17:55:21Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - Jointly Learning Visual and Auditory Speech Representations from Raw
Data [108.68531445641769]
RAVEnは視覚と聴覚の表現を協調的に学習する自己教師型マルチモーダルアプローチである。
我々の設計は、ビデオとオーディオの固有の違いによって駆動される非対称なw.r.t.である。
RAVEnは視覚音声認識における全自己指導手法を超越している。
論文 参考訳(メタデータ) (2022-12-12T21:04:06Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Meta Auxiliary Learning for Facial Action Unit Detection [84.22521265124806]
マルチタスク方式でAU検出と表情認識を学習することを検討する。
マルチタスクシナリオにおける負の転送のため、AU検出タスクの性能を常に向上することはできない。
トレーニングFEサンプルの適応重みをメタラーニング方式で学習し,高相関なFEサンプルを自動的に選択するメタラーニング法(MAL)を提案する。
論文 参考訳(メタデータ) (2021-05-14T02:28:40Z) - Visual Identification of Individual Holstein-Friesian Cattle via Deep
Metric Learning [8.784100314325395]
ホルシュタイン・フリーズ産の牛は、チューリングの反応拡散系から生じたものと類似した、個々の特性の白黒のコートパターンを視覚的に示す。
この研究は、畳み込みニューラルネットワークとディープメトリック学習技術を介して、個々のホルシュタイン・フリース人の視覚的検出と生体認証を自動化するために、これらの自然なマーキングを利用する。
論文 参考訳(メタデータ) (2020-06-16T14:41:55Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。