論文の概要: Pig aggression classification using CNN, Transformers and Recurrent
Networks
- arxiv url: http://arxiv.org/abs/2403.08528v1
- Date: Wed, 13 Mar 2024 13:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:11:00.149773
- Title: Pig aggression classification using CNN, Transformers and Recurrent
Networks
- Title(参考訳): CNN, Transformers, Recurrent を用いた豚の攻撃性分類
ネットワーク
- Authors: Junior Silva Souza, Eduardo Bedin, Gabriel Toshio Hirokawa Higa,
Newton Loebens, Hemerson Pistori
- Abstract要約: ブタの攻撃性は、動物の分類と識別を通じてその影響を減らすために研究される行動の例である。
本研究では,STAM,TimeSformer,ViViTの変種と,ResNet3D2,Resnet(2+1)D,CnnLstmなどの畳み込みを用いた手法が主な手法である。
- 参考スコア(独自算出の注目度): 0.3792473194193801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of techniques that can be used to analyze and detect animal
behavior is a crucial activity for the livestock sector, as it is possible to
monitor the stress and animal welfare and contributes to decision making in the
farm. Thus, the development of applications can assist breeders in making
decisions to improve production performance and reduce costs, once the animal
behavior is analyzed by humans and this can lead to susceptible errors and time
consumption. Aggressiveness in pigs is an example of behavior that is studied
to reduce its impact through animal classification and identification. However,
this process is laborious and susceptible to errors, which can be reduced
through automation by visually classifying videos captured in controlled
environment. The captured videos can be used for training and, as a result, for
classification through computer vision and artificial intelligence, employing
neural network techniques. The main techniques utilized in this study are
variants of transformers: STAM, TimeSformer, and ViViT, as well as techniques
using convolutions, such as ResNet3D2, Resnet(2+1)D, and CnnLstm. These
techniques were employed for pig video classification with the objective of
identifying aggressive and non-aggressive behaviors. In this work, various
techniques were compared to analyze the contribution of using transformers, in
addition to the effectiveness of the convolution technique in video
classification. The performance was evaluated using accuracy, precision, and
recall. The TimerSformer technique showed the best results in video
classification, with median accuracy of 0.729.
- Abstract(参考訳): 動物行動の分析・検出に使用できる技術の開発は、ストレスや動物福祉の監視が可能であり、農業における意思決定に寄与するため、家畜部門にとって重要な活動である。
このようにして、動物行動が人間によって分析されると、繁殖者が生産性能を向上させるための決定を下すのに役立てることができる。
ブタの攻撃性は、動物の分類と識別を通じてその影響を減らすために研究される行動の例である。
しかし、このプロセスは面倒で、エラーの影響を受けやすいため、制御された環境で撮影されたビデオを視覚的に分類することで、自動化によって削減することができる。
キャプチャされたビデオはトレーニングに使用することができ、その結果、コンピュータビジョンと人工知能による分類にニューラルネットワーク技術を使用することができる。
本研究では,STAM,TimeSformer,ViViTの変種と,ResNet3D2,Resnet(2+1)D,CnnLstmなどの畳み込みを用いた手法が主な手法である。
これらの手法は、攻撃的および非攻撃的行動を特定することを目的として、ブタのビデオ分類に用いられた。
本研究は,ビデオ分類における畳み込み技術の有効性に加えて,トランスフォーマーの寄与を分析するために様々な手法を比較した。
性能は精度、精度、リコールを用いて評価した。
TimerSformer法はビデオの分類において最も良い結果を示し、平均精度は0.729である。
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Defect Classification in Additive Manufacturing Using CNN-Based Vision
Processing [76.72662577101988]
本稿では、まず、畳み込みニューラルネットワーク(CNN)を用いて、画像データセットの欠陥をAMから第2に正確に分類し、発達した分類モデルにアクティブラーニング技術を適用する。
これにより、トレーニングデータやトレーニングデータの生成に必要なデータのサイズを削減できる、ヒューマン・イン・ザ・ループ機構の構築が可能になる。
論文 参考訳(メタデータ) (2023-07-14T14:36:58Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - CNN-Based Action Recognition and Pose Estimation for Classifying Animal
Behavior from Videos: A Survey [0.0]
アクション認識(Action Recognition)は、1つ以上の被験者がトリミングされたビデオで行う活動の分類であり、多くの技術の基礎を形成する。
人間の行動認識のためのディープラーニングモデルは、過去10年間に進歩してきた。
近年,深層学習に基づく行動認識を取り入れた研究への関心が高まっている。
論文 参考訳(メタデータ) (2023-01-15T20:54:44Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Wild Animal Classifier Using CNN [0.0]
畳み込みニューラルネットワーク(CNN)は、特定の入力を予測するために異なる重みを持つ複数の層を持つ。
画像セグメンテーションは、画像の関心領域の明確な区切りを提供する、そのような広く使われている画像処理手法である。
論文 参考訳(メタデータ) (2022-10-03T13:14:08Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Ultrafast Image Categorization in Biology and Neural Models [0.0]
生態学的に人間に関係のある2つの独立したタスクについて,標準VGG 16 CNNを再訓練した。
ネットワークの再トレーニングは、精神物理学的なタスクで報告されたのに匹敵する、人間のようなパフォーマンスのレベルを達成することを示す。
論文 参考訳(メタデータ) (2022-05-07T11:19:40Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Dairy Cow rumination detection: A deep learning approach [0.8312466807725921]
交配行動は、畜産の発展と収量を追跡するための重要な変数です。
現代のアタッチメントデバイスは、牛にとって侵襲的で、ストレスがあり、不快である。
本研究では,CNN(Convolution Neural Network)に基づくディープラーニングモデルを用いた革新的なモニタリング手法を提案する。
論文 参考訳(メタデータ) (2021-01-07T07:33:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。