論文の概要: A Self-attention Residual Convolutional Neural Network for Health Condition Classification of Cow Teat Images
- arxiv url: http://arxiv.org/abs/2409.19963v1
- Date: Mon, 30 Sep 2024 05:30:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:05:38.823371
- Title: A Self-attention Residual Convolutional Neural Network for Health Condition Classification of Cow Teat Images
- Title(参考訳): 牛涙画像の健康状態分類のための自己注意残差畳み込みニューラルネットワーク
- Authors: Minghao Wang,
- Abstract要約: 本稿では,牛の自己注意残差畳み込みニューラルネットワーク(CTSAR-CNN)モデルを提案する。
牛の乳房の健康評価において、持続的な接続性と自己保持機構を組み合わせて商業農場を支援している。
その結果,CTSAR-CNNの持続接続性と自己保持機構を統合することにより,CTSAR-CNNの精度が向上した。
- 参考スコア(独自算出の注目度): 1.076926044312162
- License:
- Abstract: Milk is a highly important consumer for Americans and the health of the cows' teats directly affects the quality of the milk. Traditionally, veterinarians manually assessed teat health by visually inspecting teat-end hyperkeratosis during the milking process which is limited in time, usually only tens of seconds, and weakens the accuracy of the health assessment of cows' teats. Convolutional neural networks (CNNs) have been used for cows' teat-end health assessment. However, there are challenges in using CNNs for cows' teat-end health assessment, such as complex environments, changing positions and postures of cows' teats, and difficulty in identifying cows' teats from images. To address these challenges, this paper proposes a cows' teats self-attention residual convolutional neural network (CTSAR-CNN) model that combines residual connectivity and self-attention mechanisms to assist commercial farms in the health assessment of cows' teats by classifying the magnitude of teat-end hyperkeratosis using digital images. The results showed that upon integrating residual connectivity and self-attention mechanisms, the accuracy of CTSAR-CNN has been improved. This research illustrates that CTSAR-CNN can be more adaptable and speedy to assist veterinarians in assessing the health of cows' teats and ultimately benefit the dairy industry.
- Abstract(参考訳): 乳はアメリカ人にとって非常に重要な消費者であり、牛の乳房の健康は乳の質に直接影響を及ぼす。
伝統的に、獣医は、乳牛の乳牛の乳牛の健康評価の正確さを弱めるため、乳牛の乳牛の期間に限られる乳牛の過角化を視覚的に検査することで、乳牛の健康を手動で評価した。
畳み込みニューラルネットワーク(CNN)は、牛のティートエンド健康評価に用いられている。
しかし、複雑な環境、牛のティートの位置や姿勢の変化、画像から牛のティートを特定するのが困難であるなど、牛のティートエンドヘルスアセスメントにCNNを使うことには課題がある。
これらの課題に対処するため,本研究では, 乳牛の乳牛の乳牛の健康評価において, 乳牛の乳牛の乳牛の健康度をデジタル画像を用いて分類することにより, 乳牛の乳牛の乳牛の乳牛の健康度評価を支援するために, 乳牛の乳牛の乳牛の自己保持残留性畳み込みニューラルネットワーク(CTSAR-CNN)モデルを提案する。
その結果,CTSAR-CNNの持続接続性と自己保持機構を統合することにより,CTSAR-CNNの精度が向上した。
この研究は、CTSAR-CNNが、獣医が牛の乳牛の健康状態を評価し、最終的に乳製品産業に利益をもたらすのを助けるために、より適応的で迅速であることを示している。
関連論文リスト
- CowScreeningDB: A public benchmark dataset for lameness detection in dairy cows [3.506897386829711]
このデータセットは、スペインのグラン・カナリアにある乳園で43頭の牛から得られた。
乳牛の日常のルーチン中にApple Watch 6を使って収集されたデータに基づいて構築されたマルチセンサーデータセットで構成されている。
データセットの公開共有とは別に、私たちは、生の感覚データを用いて、正常でラメのソーを分類する機械学習手法も共有しています。
論文 参考訳(メタデータ) (2024-05-24T13:36:00Z) - Swin-UMamba: Mamba-based UNet with ImageNet-based pretraining [85.08169822181685]
本稿では,医療画像のセグメンテーションに特化して設計された新しいマンバモデルSwin-UMambaを紹介する。
Swin-UMamba は CNN や ViT,最新の Mamba ベースのモデルと比較して,優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:58:11Z) - BovineTalk: Machine Learning for Vocalization Analysis of Dairy Cattle
under Negative Affective States [0.09786690381850353]
牛は口を閉じた,あるいは部分的に閉じた,近距離接触のための低周波発声 (LF) と遠距離通信のための高周波発声 (HF) の2種類の発声を行った。
本稿では,深層学習と説明可能な機械学習,高頻度および低周波の牛の鳴き声の分類,および個別の牛の音声認識の2つの計算フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:07:03Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Segmentation Enhanced Lameness Detection in Dairy Cows from RGB and
Depth Video [8.906235809404189]
早期の乳腺検出は、農家が早期に病気に対処し、牛の状態を悪化させることによるネガティブな影響を避けるのに役立つ。
乳房から出る牛の短いクリップのデータセットを収集し,牛の乳腺の程度を注釈した。
我々は、トレーニング済みのニューラルネットワークを利用してビデオから識別的特徴を抽出し、その状態を示す各牛にバイナリスコアを割り当てる「健康」または「ラム」を提案する。
論文 参考訳(メタデータ) (2022-06-09T12:16:31Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - FetReg: Placental Vessel Segmentation and Registration in Fetoscopy
Challenge Dataset [57.30136148318641]
Fetoscopy Laser Photocoagulation はツイン・ツー・ツイン・トランスフュージョン症候群(TTTS)の治療に広く用いられている治療法である
これにより、プロシージャ時間と不完全アブレーションが増加し、持続的なTTTSが生じる可能性がある。
コンピュータ支援による介入は、ビデオモザイクによって胎児の視野を広げ、船体ネットワークのより良い視覚化を提供することによって、これらの課題を克服するのに役立つかもしれない。
本稿では,長期フェトスコープビデオからドリフトフリーモザイクを作成することを目的とした,胎児環境のための汎用的でロバストなセマンティックセマンティックセグメンテーションとビデオモザイクアルゴリズムを開発するための大規模マルチセントデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:14:27Z) - T-LEAP: occlusion-robust pose estimation of walking cows using temporal
information [0.0]
乳牛の健康障害である乳腺は、乳牛の歩行を分析して一般的に検出される。
モデルが自動的に画像やビデオの解剖学的ランドマークをローカライズすることを学ぶので、牛の歩行はポーズ推定モデルを使用してビデオで追跡することができます。
ほとんどの動物のポーズ推定モデルは静的であり、ビデオはフレームごとに処理され、時間的情報を使用しない。
論文 参考訳(メタデータ) (2021-04-16T10:50:56Z) - Dairy Cow rumination detection: A deep learning approach [0.8312466807725921]
交配行動は、畜産の発展と収量を追跡するための重要な変数です。
現代のアタッチメントデバイスは、牛にとって侵襲的で、ストレスがあり、不快である。
本研究では,CNN(Convolution Neural Network)に基づくディープラーニングモデルを用いた革新的なモニタリング手法を提案する。
論文 参考訳(メタデータ) (2021-01-07T07:33:32Z) - Counting Cows: Tracking Illegal Cattle Ranching From High-Resolution
Satellite Imagery [59.32805936205217]
牛の農業は世界の温室効果ガス排出量の8.8%を占めている。
40cmの解像度でアマゾンの衛星画像を取得し、合計28498頭の牛を含む903枚の画像のデータセットをまとめた。
本実験は,有望な結果を示し,これらの課題を解決するためのアルゴリズムとデータ収集プロセスのいずれにおいても,次のステップの重要方向を示すものである。
論文 参考訳(メタデータ) (2020-11-14T19:07:39Z) - Understanding the robustness of deep neural network classifiers for
breast cancer screening [52.50078591615855]
ディープニューラルネットワーク(DNN)は乳がん検診において有望であるが、その入力摂動に対する堅牢性は臨床的に実装される前によりよく理解する必要がある。
放射線技師レベルのマンモグラム画像分類器の4種類の入力摂動に対する感度を測定した。
また,低域通過フィルタの効果について詳細な解析を行い,臨床的に有意な特徴の視認性を低下させることを示した。
論文 参考訳(メタデータ) (2020-03-23T01:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。