論文の概要: Assessing the Feasibility of Internet-Sourced Video for Automatic Cattle Lameness Detection
- arxiv url: http://arxiv.org/abs/2504.16404v1
- Date: Wed, 23 Apr 2025 04:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.99361
- Title: Assessing the Feasibility of Internet-Sourced Video for Automatic Cattle Lameness Detection
- Title(参考訳): 牛の乳腺自動検出におけるインターネット・ソース・ビデオの有用性の評価
- Authors: Md Fahimuzzman Sohan,
- Abstract要約: 本研究では, 牛の乳腺, 病状, 異常を検出するためのディープラーニングモデルについて, 公開されているビデオデータを用いて検討した。
3D CNNモデルはビデオレベルの分類精度が90%に達し、精度、リコール、f1スコアはそれぞれ90.9%、90.9%、90.91%であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cattle lameness is often caused by hoof injuries or interdigital dermatitis, leads to pain and significantly impacts essential physiological activities such as walking, feeding, and drinking. This study presents a deep learning-based model for detecting cattle lameness, sickness, or gait abnormalities using publicly available video data. The dataset consists of 50 unique videos from 40 individual cattle, recorded from various angles in both indoor and outdoor environments. Half of the dataset represents naturally walking (normal/non-lame) cattle, while the other half consists of cattle exhibiting gait abnormalities (lame). To enhance model robustness and generalizability, data augmentation was applied to the training data. The pre-processed videos were then classified using two deep learning models: ConvLSTM2D and 3D CNN. A comparative analysis of the results demonstrates strong classification performance. Specifically, the 3D CNN model achieved a video-level classification accuracy of 90%, with precision, recall, and f1-score of 90.9%, 90.9%, and 90.91% respectively. The ConvLSTM2D model exhibited a slightly lower accuracy of 85%. This study highlights the effectiveness of directly applying classification models to learn spatiotemporal features from video data, offering an alternative to traditional multi-stage approaches that typically involve object detection, pose estimation, and feature extraction. Besides, the findings demonstrate that the proposed deep learning models, particularly the 3D CNN, effectively classify and detect lameness in cattle while simplifying the processing pipeline.
- Abstract(参考訳): 牛の乳腺は、しばしばフーフの怪我や指間皮膚炎によって引き起こされ、痛みを招き、歩行、摂食、飲酒などの重要な生理的活動に著しく影響を及ぼす。
本研究では, 牛の乳腺, 病気, 歩行異常を映像データを用いて検出する深層学習モデルを提案する。
このデータセットは、屋内と屋外の両方でさまざまな角度から記録された40頭の牛の50のユニークなビデオで構成されている。
データセットの半数は自然歩行牛(通常/非ライム牛)、残り半分は歩行異常牛(ライム牛)である。
モデルの堅牢性と一般化性を高めるため,トレーニングデータにデータ拡張を適用した。
事前処理されたビデオは、ConvLSTM2Dと3D CNNの2つのディープラーニングモデルを使用して分類された。
比較分析により, 高い分類性能を示した。
具体的には、ビデオレベルの分類精度は90%に達し、精度、リコール、f1スコアはそれぞれ90.9%、90.9%、90.91%であった。
ConvLSTM2Dモデルは85%とわずかに低い精度を示した。
本研究では,ビデオデータから時空間的特徴を学習するための分類モデルを直接適用することの有効性を強調し,オブジェクト検出やポーズ推定,特徴抽出といった従来の多段階アプローチに代わる方法を提案する。
さらに,提案した深層学習モデル,特に3D CNNは,処理パイプラインを簡素化しつつ,牛の湿気を効果的に分類し,検出することを示した。
関連論文リスト
- Excretion Detection in Pigsties Using Convolutional and Transformerbased Deep Neural Networks [0.0]
水たまりや糞のような動物の排ガスは家畜の農業において重要な排出源である。
水たまり領域を決定するための従来の研究手法では、納屋内の水たまりを手動で検出する必要がある。
本研究は,豚の排ガス検出における各種深層学習モデルの適合性について検討した最初のものである。
論文 参考訳(メタデータ) (2024-11-29T21:00:08Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - Human activity recognition using deep learning approaches and single
frame cnn and convolutional lstm [0.0]
我々は、ビデオから人間の行動を認識するために、単一のフレーム畳み込みニューラルネットワーク(CNN)と畳み込み長短期記憶という、深層学習に基づく2つのアプローチを探索する。
2つのモデルは、ベンチマークアクション認識データセットであるUCF50と、実験のために作成された別のデータセットでトレーニングされ、評価された。
どちらのモデルも精度は良いが、単一のフレームCNNモデルはUCF50データセットで99.8%の精度で畳み込みLSTMモデルより優れている。
論文 参考訳(メタデータ) (2023-04-18T01:33:29Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - T-LEAP: occlusion-robust pose estimation of walking cows using temporal
information [0.0]
乳牛の健康障害である乳腺は、乳牛の歩行を分析して一般的に検出される。
モデルが自動的に画像やビデオの解剖学的ランドマークをローカライズすることを学ぶので、牛の歩行はポーズ推定モデルを使用してビデオで追跡することができます。
ほとんどの動物のポーズ推定モデルは静的であり、ビデオはフレームごとに処理され、時間的情報を使用しない。
論文 参考訳(メタデータ) (2021-04-16T10:50:56Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。