論文の概要: BovineTalk: Machine Learning for Vocalization Analysis of Dairy Cattle
under Negative Affective States
- arxiv url: http://arxiv.org/abs/2307.13994v1
- Date: Wed, 26 Jul 2023 07:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:17:33.828520
- Title: BovineTalk: Machine Learning for Vocalization Analysis of Dairy Cattle
under Negative Affective States
- Title(参考訳): BovineTalk: 負の影響下での乳牛の発声分析のための機械学習
- Authors: Dinu Gavojdian, Teddy Lazebnik, Madalina Mincu, Ariel Oren, Ioana
Nicolae, Anna Zamansky
- Abstract要約: 牛は口を閉じた,あるいは部分的に閉じた,近距離接触のための低周波発声 (LF) と遠距離通信のための高周波発声 (HF) の2種類の発声を行った。
本稿では,深層学習と説明可能な機械学習,高頻度および低周波の牛の鳴き声の分類,および個別の牛の音声認識の2つの計算フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.09786690381850353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is a critical need to develop and validate non-invasive animal-based
indicators of affective states in livestock species, in order to integrate them
into on-farm assessment protocols, potentially via the use of precision
livestock farming (PLF) tools. One such promising approach is the use of vocal
indicators. The acoustic structure of vocalizations and their functions were
extensively studied in important livestock species, such as pigs, horses,
poultry and goats, yet cattle remain understudied in this context to date. Cows
were shown to produce two types vocalizations: low-frequency calls (LF),
produced with the mouth closed, or partially closed, for close distance
contacts and open mouth emitted high-frequency calls (HF), produced for long
distance communication, with the latter considered to be largely associated
with negative affective states. Moreover, cattle vocalizations were shown to
contain information on individuality across a wide range of contexts, both
negative and positive. Nowadays, dairy cows are facing a series of negative
challenges and stressors in a typical production cycle, making vocalizations
during negative affective states of special interest for research. One
contribution of this study is providing the largest to date pre-processed
(clean from noises) dataset of lactating adult multiparous dairy cows during
negative affective states induced by visual isolation challenges. Here we
present two computational frameworks - deep learning based and explainable
machine learning based, to classify high and low-frequency cattle calls, and
individual cow voice recognition. Our models in these two frameworks reached
87.2% and 89.4% accuracy for LF and HF classification, with 68.9% and 72.5%
accuracy rates for the cow individual identification, respectively.
- Abstract(参考訳): 家畜の正確な家畜養殖(PLF)ツールを利用することにより、家畜種における情動状態の非侵襲的な指標を開発し、検証する必要がある。
そのような有望なアプローチの1つは、発声指示器の使用である。
声化の音響構造とその機能は、豚、馬、鶏、ヤギなどの重要な家畜種で広く研究されたが、牛はこの文脈で現在まで検討されている。
牛は, 口を閉じた, あるいは部分的に閉じた, 遠距離接触のための低周波発声 (LF) と, 遠距離通信のための開口発声 (HF) の2種類の発声を, 後者は負の感情状態と関連していると考えられた。
さらに, 牛の発声には, 否定的, 肯定的, 幅広い文脈において, 個人性に関する情報が含まれていた。
現在では、乳牛は典型的な生産サイクルにおいて一連のネガティブな課題やストレスに直面しており、研究に特に興味を持つネガティブな感情状態の中で声を鳴らしている。
この研究の貢献の一つは、視覚隔離課題によって引き起こされるネガティブな感情状態の間、乳牛を授乳する成人の乳牛の、最大で最新の(ノイズからのクリーン)データセットを提供することである。
本稿では,深層学習と説明可能な機械学習,高頻度および低周波の牛の鳴き声の分類,および個別の牛の音声認識の2つの計算フレームワークを提案する。
両フレームワークのモデルでは, LF分類では87.2%, HF分類では89.4%, 牛個体識別では68.9%, 72.5%の精度であった。
関連論文リスト
- Multi Modal Information Fusion of Acoustic and Linguistic Data for Decoding Dairy Cow Vocalizations in Animal Welfare Assessment [0.0]
本研究では,マルチモーダルデータ融合技術を用いて乳牛の接触呼をデコードすることを目的とする。
本研究では,自然言語処理モデルを用いて,牛の発声音声の音声記録を書式に転写する。
発声は、苦痛や覚醒に関連する高頻度通話と、満足感や落ち着きに関連する低頻度通話に分類した。
論文 参考訳(メタデータ) (2024-11-01T09:48:30Z) - Supervised Learning Model for Key Frame Identification from Cow Teat Videos [0.9115927248875568]
本稿では, ウシの乳房炎リスク評価の精度をニューラルネットワークとビデオ解析を用いて改善する手法を提案する。
伝統的に、獣医は乳牛の乳房の健康を評価する。
本論文は、牛のうどんが無傷に見えるビデオのキーフレームをニューラルネットワークで同定する。
論文 参考訳(メタデータ) (2024-09-26T15:50:43Z) - "Knowing When You Don't Know": A Multilingual Relevance Assessment Dataset for Robust Retrieval-Augmented Generation [90.09260023184932]
Retrieval-Augmented Generation (RAG) は、外部の知識源を活用して、事実の幻覚を減らすことで、Large Language Model (LLM) を出力する。
NoMIRACLは18言語にまたがるRAGにおけるLDM堅牢性を評価するための人為的アノテーション付きデータセットである。
本研究は,<i>Halucination rate</i>,<i>Halucination rate</i>,<i>Halucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sorucination rate</i>,<i>Sr。
論文 参考訳(メタデータ) (2023-12-18T17:18:04Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Towards Automated Animal Density Estimation with Acoustic Spatial
Capture-Recapture [2.5193666094305938]
デジタルレコーダーにより、測量士は大量のデータを低コストで収集することができる。
しかし、これらのデータの中で標的となる種の発声を識別するのは簡単ではない。
機械学習(ML)手法はしばしばその識別に使用される。
音響的空間キャプチャー・キャプチャー推定のための3つの手法を提案する。
論文 参考訳(メタデータ) (2023-08-24T15:29:24Z) - Automatically measuring speech fluency in people with aphasia: first
achievements using read-speech data [55.84746218227712]
本研究の目的は,言語習得の分野で開発された信号処理algorithmの関連性を評価することである。
論文 参考訳(メタデータ) (2023-08-09T07:51:40Z) - Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - Segmentation Enhanced Lameness Detection in Dairy Cows from RGB and
Depth Video [8.906235809404189]
早期の乳腺検出は、農家が早期に病気に対処し、牛の状態を悪化させることによるネガティブな影響を避けるのに役立つ。
乳房から出る牛の短いクリップのデータセットを収集し,牛の乳腺の程度を注釈した。
我々は、トレーニング済みのニューラルネットワークを利用してビデオから識別的特徴を抽出し、その状態を示す各牛にバイナリスコアを割り当てる「健康」または「ラム」を提案する。
論文 参考訳(メタデータ) (2022-06-09T12:16:31Z) - T-LEAP: occlusion-robust pose estimation of walking cows using temporal
information [0.0]
乳牛の健康障害である乳腺は、乳牛の歩行を分析して一般的に検出される。
モデルが自動的に画像やビデオの解剖学的ランドマークをローカライズすることを学ぶので、牛の歩行はポーズ推定モデルを使用してビデオで追跡することができます。
ほとんどの動物のポーズ推定モデルは静的であり、ビデオはフレームごとに処理され、時間的情報を使用しない。
論文 参考訳(メタデータ) (2021-04-16T10:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。