論文の概要: Bearded Dragon Activity Recognition Pipeline: An AI-Based Approach to Behavioural Monitoring
- arxiv url: http://arxiv.org/abs/2507.17987v1
- Date: Wed, 23 Jul 2025 23:35:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.652905
- Title: Bearded Dragon Activity Recognition Pipeline: An AI-Based Approach to Behavioural Monitoring
- Title(参考訳): Bearded Dragon Activity Recognition Pipeline: 行動モニタリングのためのAIベースのアプローチ
- Authors: Arsen Yermukan, Pedro Machado, Feliciano Domingos, Isibor Kennedy Ihianle, Jordan J. Bird, Stefano S. K. Kaburu, Samantha J. Ward,
- Abstract要約: 本稿では,YOLO(You Only Look Once)オブジェクト検出モデルを用いて,リアルタイムビデオ解析のための自動システムを提案する。
5つのYOLO変異体を、1200枚の画像のカスタムデータセットで訓練し、ひげを生やしたドラゴン(600枚)、暖房ランプ(500枚)、クリケット(100枚)を包含した。
このシステムは、フレーム単位のオブジェクト座標を抽出し、時間的連続性を適用し、特定の振る舞いを分類するためにルールベースのロジックを使用する。
- 参考スコア(独自算出の注目度): 0.6334523276812193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional monitoring of bearded dragon (Pogona Viticeps) behaviour is time-consuming and prone to errors. This project introduces an automated system for real-time video analysis, using You Only Look Once (YOLO) object detection models to identify two key behaviours: basking and hunting. We trained five YOLO variants (v5, v7, v8, v11, v12) on a custom, publicly available dataset of 1200 images, encompassing bearded dragons (600), heating lamps (500), and crickets (100). YOLOv8s was selected as the optimal model due to its superior balance of accuracy (mAP@0.5:0.95 = 0.855) and speed. The system processes video footage by extracting per-frame object coordinates, applying temporal interpolation for continuity, and using rule-based logic to classify specific behaviours. Basking detection proved reliable. However, hunting detection was less accurate, primarily due to weak cricket detection (mAP@0.5 = 0.392). Future improvements will focus on enhancing cricket detection through expanded datasets or specialised small-object detectors. This automated system offers a scalable solution for monitoring reptile behaviour in controlled environments, significantly improving research efficiency and data quality.
- Abstract(参考訳): ひげを生やした竜(Pogona Viticeps)の行動の伝統的なモニタリングは、時間がかかりエラーを起こしやすい。
本研究は, リアルタイムビデオ解析のための自動システムであるYou Only Look Once (YOLO) オブジェクト検出モデルを用いて, バスキングとハンティングの2つの重要な振る舞いを識別する。
5種類のYOLO変異体(v5,v7,v8,v11,v12)を、1200の画像のカスタムデータセットでトレーニングし、ひげを生やしたドラゴン(600)、暖房ランプ(500)、クリケット(100)を包含した。
YOLOv8sは精度(mAP@0.5:0.95 = 0.855)と速度のバランスが優れているため最適モデルに選ばれた。
このシステムは、フレーム単位のオブジェクト座標を抽出し、連続性に時間的補間を適用し、特定の振る舞いを分類するためにルールベースのロジックを使用する。
バス検出は信頼性が証明された。
しかし、狩猟検出は、主に弱いクリケット検出(mAP@0.5 = 0.392)のため、精度が低かった。
将来的には、拡張データセットや専用小物体検出器によるクリケット検出の強化に注力する予定である。
この自動システムは、制御された環境における虫歯類の挙動を監視し、研究効率とデータ品質を大幅に改善するスケーラブルなソリューションを提供する。
関連論文リスト
- Classification of Cattle Behavior and Detection of Heat (Estrus) using Sensor Data [0.0]
我々は、加速度計とジャイロセンサーを備えた安価なBluetoothベースの首首首輪を設計、展開し、実際の牛のリアルタイム行動データを収集した。
ラベル付きデータセットは、同期されたCCTV映像を使用して作成され、フィード、ルミネーション、嘘などの振る舞いに注釈を付ける。
実験では,93%以上の行動分類精度,96%のエストラス検出精度が得られた。
論文 参考訳(メタデータ) (2025-06-19T15:00:23Z) - VSViG: Real-time Video-based Seizure Detection via Skeleton-based Spatiotemporal ViG [8.100646331930953]
正確なて効率的なてんかん発作検出は、患者に有益である。
従来の診断法は、主に脳波(EEG)に依存しており、しばしば困難で移植不可能な解決策をもたらす。
骨格型時間的視覚グラフニューラルネットワークを用いて,ビデオに基づく新しいシーズーア検出モデルを提案する。
論文 参考訳(メタデータ) (2023-11-24T15:07:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Cut and Learn for Unsupervised Object Detection and Instance
Segmentation [65.43627672225624]
Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
論文 参考訳(メタデータ) (2023-01-26T18:57:13Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Identification of Binary Neutron Star Mergers in Gravitational-Wave Data
Using YOLO One-Shot Object Detection [0.0]
本稿では, 汎用の畳み込み型単発物体検出モデルであるYOLOv5モデルを, 電流発生干渉計検出器の重力波データから二元中性子星(BNS)の合体現象を検出するタスクに適用した。
単クラス検証データセットの平均精度(textmAP_[0.50]$)は0.945、テストデータセットは0.978である。
論文 参考訳(メタデータ) (2022-07-01T10:11:44Z) - Rethinking Keypoint Representations: Modeling Keypoints and Poses as
Objects for Multi-Person Human Pose Estimation [79.78017059539526]
本研究では,個々のキーポイントと空間的関連キーポイント(ポーズ)の集合を,密集した単一ステージアンカーベース検出フレームワーク内のオブジェクトとしてモデル化する,新しいヒートマップフリーなキーポイント推定手法を提案する。
実験では, KAPAOは従来手法よりもはるかに高速かつ高精度であり, 熱マップ後処理に悩まされていた。
我々の大規模モデルであるKAPAO-Lは、テスト時間拡張なしでMicrosoft COCO Keypoints検証セット上で70.6のAPを達成する。
論文 参考訳(メタデータ) (2021-11-16T15:36:44Z) - Fast Hand Detection in Collaborative Learning Environments [7.954705422811769]
長期オブジェクト検出には、フレームベースの結果を数秒以上統合する必要がある。
協調学習環境における長時間のビデオ記録における手検出について検討した。
提案手法はオブジェクト検出を統合し,時間投影,クラスタリング,小領域削除を行う。
論文 参考訳(メタデータ) (2021-10-13T22:50:15Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - NVAE-GAN Based Approach for Unsupervised Time Series Anomaly Detection [19.726089445453734]
時系列異常検出は、多くの業界で一般的だが難しい課題である。
実世界から収集されたノイズデータから,時系列の異常を高精度に検出することは困難である。
我々は異常検出モデルを提案する:時系列から画像VAE (T2IVAE)
論文 参考訳(メタデータ) (2021-01-08T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。