論文の概要: Real-Time Threaded Houbara Detection and Segmentation for Wildlife Conservation using Mobile Platforms
- arxiv url: http://arxiv.org/abs/2510.03501v1
- Date: Fri, 03 Oct 2025 20:25:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.076442
- Title: Real-Time Threaded Houbara Detection and Segmentation for Wildlife Conservation using Mobile Platforms
- Title(参考訳): 移動体プラットフォームを用いた野生生物保護のための実時間糸 Houbara 検出とセグメンテーション
- Authors: Lyes Saad Saoud, Loic Lesobre, Enrico Sorato, Irfan Hussain,
- Abstract要約: 自然環境におけるリアルタイムの動物検出とセグメンテーションは野生生物の保護に不可欠であり、遠隔カメラストリームによる非侵襲的なモニタリングを可能にする。
YOLOv10ベースの検出とMobileSAMベースのセグメンテーションを並列化するために,スレッド検出モデル(TDM)を統合したモバイル最適化2段階ディープラーニングフレームワークを提案する。
法原バスタードでは,0.9627,0.7731のmAP75,0.7178のmAP95,0.7421のMobileSAM mIoUが得られた。
- 参考スコア(独自算出の注目度): 1.861597728321967
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Real-time animal detection and segmentation in natural environments are vital for wildlife conservation, enabling non-invasive monitoring through remote camera streams. However, these tasks remain challenging due to limited computational resources and the cryptic appearance of many species. We propose a mobile-optimized two-stage deep learning framework that integrates a Threading Detection Model (TDM) to parallelize YOLOv10-based detection and MobileSAM-based segmentation. Unlike prior YOLO+SAM pipelines, our approach improves real-time performance by reducing latency through threading. YOLOv10 handles detection while MobileSAM performs lightweight segmentation, both executed concurrently for efficient resource use. On the cryptic Houbara Bustard, a conservation-priority species, our model achieves mAP50 of 0.9627, mAP75 of 0.7731, mAP95 of 0.7178, and a MobileSAM mIoU of 0.7421. YOLOv10 operates at 43.7 ms per frame, confirming real-time readiness. We introduce a curated Houbara dataset of 40,000 annotated images to support model training and evaluation across diverse conditions. The code and dataset used in this study are publicly available on GitHub at https://github.com/LyesSaadSaoud/mobile-houbara-detseg. For interactive demos and additional resources, visit https://lyessaadsaoud.github.io/LyesSaadSaoud-Threaded-YOLO-SAM-Houbara.
- Abstract(参考訳): 自然環境におけるリアルタイムの動物検出とセグメンテーションは野生生物の保護に不可欠であり、遠隔カメラストリームによる非侵襲的なモニタリングを可能にする。
しかし、これらのタスクは、限られた計算資源と多くの種の秘密の出現のため、依然として困難なままである。
YOLOv10ベースの検出とMobileSAMベースのセグメンテーションを並列化するために,スレッド検出モデル(TDM)を統合したモバイル最適化2段階ディープラーニングフレームワークを提案する。
従来のYOLO+SAMパイプラインとは違って,スレッディングによるレイテンシ低減により,リアルタイムのパフォーマンス向上を実現しています。
YOLOv10は検出を処理し、MobileSAMは軽量セグメンテーションを実行する。
保全優占種である宝原バスタードでは,0.9627 mAP50,0.7731 mAP75,0.7178 mAP95,0.7421 MobileSAM mIoUが得られた。
YOLOv10は1フレームあたり43.7msで動作する。
様々な条件下でモデルトレーニングと評価を支援するために,4万枚の注釈付き画像のキュレートされたHoubaraデータセットを紹介した。
この研究で使用されたコードとデータセットはGitHubでhttps://github.com/LyesSaadSaoud/mobile-houbara-detsegで公開されている。
インタラクティブなデモと追加リソースについては、https://lyessaadsaoud.github.io/LyesSaadSaoud-Threaded-YOLO-SAM-Houbaraを参照してください。
関連論文リスト
- A Comparative Study of YOLOv8 to YOLOv11 Performance in Underwater Vision Tasks [0.0]
YOLOファミリーの1段階検出器は、単一の低遅延ネットワークで局所化と分類を融合するため、魅力的である。
比較操作条件にまたがる2つのデータセットをキュレートする。コーラル病セット(4,480イメージ、18クラス)と魚種セット(7,500イメージ、20クラス)である。
YOLOvs, YOLOv9-s, YOLOv10-s, YOLOv11-sを同一のハイパー参照でトレーニングし, 精度, リコール, mAP50, mAP50-95, 画像毎の推論時間, フレーム毎秒(FPS)を評価する。
論文 参考訳(メタデータ) (2025-09-16T05:12:59Z) - Bearded Dragon Activity Recognition Pipeline: An AI-Based Approach to Behavioural Monitoring [0.6334523276812193]
本稿では,YOLO(You Only Look Once)オブジェクト検出モデルを用いて,リアルタイムビデオ解析のための自動システムを提案する。
5つのYOLO変異体を、1200枚の画像のカスタムデータセットで訓練し、ひげを生やしたドラゴン(600枚)、暖房ランプ(500枚)、クリケット(100枚)を包含した。
このシステムは、フレーム単位のオブジェクト座標を抽出し、時間的連続性を適用し、特定の振る舞いを分類するためにルールベースのロジックを使用する。
論文 参考訳(メタデータ) (2025-07-23T23:35:11Z) - ZS-VCOS: Zero-Shot Video Camouflaged Object Segmentation By Optical Flow and Open Vocabulary Object Detection [7.457821910654639]
本研究は,SAM-2やOwl-v2といった大規模事前学習モデルと時間的情報をモジュールパイプラインに統合することにより,トレーニングを回避する方法を研究する。
また,F対策を0.476から0.628に増やした。
論文 参考訳(メタデータ) (2025-04-10T06:24:54Z) - Unified Human Localization and Trajectory Prediction with Monocular Vision [64.19384064365431]
MonoTransmotionはトランスフォーマーベースのフレームワークで、モノクロカメラのみを使用して、ローカライゼーションと予測タスクを共同で解決する。
両タスクを統合フレームワークで共同でトレーニングすることにより,ノイズの多い入力による実環境シナリオにおいて,我々の手法がより堅牢であることを示す。
論文 参考訳(メタデータ) (2025-03-05T14:18:39Z) - EdgeTAM: On-Device Track Anything Model [65.10032957471824]
Segment Anything Model (SAM) 2はさらに、イメージからビデオへの入力をメモリバンク機構を通じて拡張する。
私たちはSAM 2をより効率的にし、同等のパフォーマンスを維持しながらモバイルデバイス上でも動作できるようにすることを目標としています。
計算コストを削減するために,新しい2次元空間知覚器を利用するEdgeTAMを提案する。
論文 参考訳(メタデータ) (2025-01-13T12:11:07Z) - Augmenting Efficient Real-time Surgical Instrument Segmentation in Video with Point Tracking and Segment Anything [9.338136334709818]
手術器具のセグメンテーションを微調整した軽量SAMモデルとオンラインポイントトラッカーを組み合わせた新しいフレームワークを提案する。
関心領域内のスパースポイントが追跡され、SAMをビデオシーケンス全体を通してプロンプトし、時間的一貫性を提供する。
提案手法は,XMemとトランスフォーマーをベースとした完全教師付きセグメンテーション手法に匹敵する有望な性能を実現する。
論文 参考訳(メタデータ) (2024-03-12T18:12:42Z) - RMP-SAM: Towards Real-Time Multi-Purpose Segment Anything [117.02741621686677]
この研究はリアルタイム多目的セグメンテーションと呼ばれる新しいリアルタイムセグメンテーション設定を探索する。
インタラクティブセグメンテーション、パノスコープセグメンテーション、ビデオインスタンスセグメンテーションの3つの基本的なサブタスクを含んでいる。
動的畳み込みに基づく新しい動的畳み込み手法であるReal-Time Multi-Purpose SAM(RMP-SAM)を提案する。
効率的なエンコーダと、プロンプト駆動のデコードを実行するための効率的なデカップリングアダプタを含む。
論文 参考訳(メタデータ) (2024-01-18T18:59:30Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [73.06322749886483]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
これらすべての提案手法により、TinySAMは計算量を大幅に削減し、エンベロープを効率的なセグメント化タスクにプッシュする。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Spatio-Temporal Event Segmentation and Localization for Wildlife
Extended Videos [6.279863832853343]
本稿では,時間的イベントセグメンテーションが可能な自己教師型予測フレームワークを提案する。
私たちは、標準的なディープラーニングのバックボーンによって計算される高レベルの機能の予測に頼っています。
野生生物モニタリングデータの10日間 (254時間) のビデオに対するアプローチを実演する。
論文 参考訳(メタデータ) (2020-05-05T20:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。