論文の概要: Multi-perspective monitoring of wildlife and human activities from camera traps and drones with deep learning models
- arxiv url: http://arxiv.org/abs/2508.15629v1
- Date: Thu, 21 Aug 2025 14:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.37332
- Title: Multi-perspective monitoring of wildlife and human activities from camera traps and drones with deep learning models
- Title(参考訳): 深層学習モデルを用いたカメラトラップとドローンによる野生生物・人間活動の多視点モニタリング
- Authors: Hao Chen, Fang Qiu, Li An, Douglas Stow, Eve Bohnett, Haitao Lyu, Shuang Tian,
- Abstract要約: この研究は、チトワン国立公園(CNP)、ネパール、および近隣地域で実施された。
深層学習モデルは、野生生物と人間の活動を自動的に識別するために構築された。
この研究は、保存された景観の中で人間の野生生物の衝突を明らかにする。
- 参考スコア(独自算出の注目度): 2.8310300763813645
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Wildlife and human activities are key components of landscape systems. Understanding their spatial distribution is essential for evaluating human wildlife interactions and informing effective conservation planning. Multiperspective monitoring of wildlife and human activities by combining camera traps and drone imagery. Capturing the spatial patterns of their distributions, which allows the identification of the overlap of their activity zones and the assessment of the degree of human wildlife conflict. The study was conducted in Chitwan National Park (CNP), Nepal, and adjacent regions. Images collected by visible and nearinfrared camera traps and thermal infrared drones from February to July 2022 were processed to create training and testing datasets, which were used to build deep learning models to automatic identify wildlife and human activities. Drone collected thermal imagery was used for detecting targets to provide a multiple monitoring perspective. Spatial pattern analysis was performed to identify animal and resident activity hotspots and delineation potential human wildlife conflict zones. Among the deep learning models tested, YOLOv11s achieved the highest performance with a precision of 96.2%, recall of 92.3%, mAP50 of 96.7%, and mAP50 of 81.3%, making it the most effective for detecting objects in camera trap imagery. Drone based thermal imagery, analyzed with an enhanced Faster RCNN model, added a complementary aerial viewpoint for camera trap detections. Spatial pattern analysis identified clear hotspots for both wildlife and human activities and their overlapping patterns within certain areas in the CNP and buffer zones indicating potential conflict. This study reveals human wildlife conflicts within the conserved landscape. Integrating multiperspective monitoring with automated object detection enhances wildlife surveillance and landscape management.
- Abstract(参考訳): 野生生物と人間の活動は景観システムの重要な構成要素である。
それらの空間分布を理解することは、人間の野生生物の相互作用を評価し、効果的な保全計画を示すのに不可欠である。
カメラトラップとドローン画像の組み合わせによる野生生物と人間の活動の多視点モニタリング
分布の空間的パターンをキャプチャすることで、それらの活動領域の重複を識別し、人間の野生生物の衝突の程度を評価することができる。
この研究は、チトワン国立公園(CNP)、ネパール、および近隣地域で実施された。
2022年2月から7月にかけて、可視・近赤外線カメラトラップと熱赤外線ドローンによって収集された画像は、野生生物や人間の活動を自動的に識別するディープラーニングモデルを構築するために、トレーニングとテストデータセットを作成するために処理された。
ドローンが収集した熱画像は、複数の監視視点を提供するためにターゲットを検出するために使用された。
動物および生息するホットスポットの同定と,ヒト野生生物紛争帯の特定のための空間パターン解析を行った。
テストされたディープラーニングモデルの中で、YOLOv11sは96.2%の精度、92.3%のリコール、96.7%のmAP50、81.3%のmAP50で最高性能を達成した。
改良されたFaster RCNNモデルで解析されたドローンによる熱画像は、カメラトラップ検出のための補完的な空中視点を追加した。
空間パターン解析により,CNP領域と緩衝領域の特定の領域において,野生生物とヒトの両方の活動において明らかなホットスポットとそれらの重なり合うパターンが同定された。
この研究は、保存された景観の中で人間の野生生物の衝突を明らかにする。
自動物体検出とマルチパースペクティブモニタリングの統合により、野生生物の監視と景観管理が強化される。
関連論文リスト
- Decentralized Vision-Based Autonomous Aerial Wildlife Monitoring [55.159556673975544]
野生生物モニタリングのための分散視覚に基づくマルチクワッドロータシステムを提案する。
我々のアプローチは、その自然生息地における大型種のロバスト同定と追跡を可能にする。
論文 参考訳(メタデータ) (2025-08-20T20:05:05Z) - MammAlps: A multi-view video behavior monitoring dataset of wild mammals in the Swiss Alps [41.58000025132071]
MammAlps(マムアルプス)は、スイス国立公園の9つのカメラトラップから収集した野生生物の行動のデータセットである。
6135個の単一動物クリップに基づいて,最初の階層的・マルチモーダルな動物行動認識ベンチマークを提案する。
また,活動,種,個体数,気象条件の同定を目的とした第2の生態指標を提案する。
論文 参考訳(メタデータ) (2025-03-23T21:51:58Z) - Inteligencia artificial para la multi-clasificación de fauna en fotografías automáticas utilizadas en investigación científica [0.0]
カメラトラップは何百万もの画像の収集を可能にする。
これらの膨大なデータリポジトリに格納されている貴重な知識の多くは、未解決のままである。
本研究の目的は,動物種をカメラトラップで撮影した写真に分類するニューラルネットワークモデルの構築である。
論文 参考訳(メタデータ) (2025-02-06T13:23:24Z) - AI-Driven Real-Time Monitoring of Ground-Nesting Birds: A Case Study on Curlew Detection Using YOLOv10 [0.07255608805275862]
本研究は,カリュー(Numenius arquata)に着目したAIによるリアルタイム種検出手法を提案する。
カスタムトレーニングされたYOLOv10モデルは、Create AIプラットフォームにリンクされた3/4G対応カメラを使用して、カリューとそのニワトリを検知し、分類するために開発された。
ウェールズの11箇所で、このモデルは高い性能を達成し、感度は90.56%、特異度は100%、F1スコアは95.05%だった。
論文 参考訳(メタデータ) (2024-11-22T10:36:29Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Removing Human Bottlenecks in Bird Classification Using Camera Trap
Images and Deep Learning [0.14746127876003345]
鳥類の個体数を監視することは生態学者にとって不可欠である。
カメラトラップ、音響モニター、ドローンなどの技術は、非侵襲的な監視方法を提供する。
監視にカメラトラップを使用する場合の主な問題は2つある。a) カメラは多くの画像を生成し、タイムリーにデータを処理し分析することが困難になる。
本稿では,鳥種のリアルタイム分類にディープラーニングを活用することによって,これらの問題を克服するためのアプローチを概説する。
論文 参考訳(メタデータ) (2023-05-03T13:04:39Z) - Deep object detection for waterbird monitoring using aerial imagery [56.1262568293658]
本研究では,商用ドローンで収集した空中画像を用いて,水鳥の正確な検出,数え,監視に使用できる深層学習パイプラインを提案する。
畳み込み型ニューラルネットワークを用いた物体検出装置を用いて,テキサス沿岸の植民地性営巣島でよく見られる16種類の水鳥を検出できることを示す。
論文 参考訳(メタデータ) (2022-10-10T17:37:56Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Unifying data for fine-grained visual species classification [15.14767769034929]
465種にまたがる2.9M画像に基づいて訓練した,初期の深部畳み込みニューラルネットワークモデルを提案する。
長期的な目標は、科学者が種数と人口の健康状態のほぼリアルタイムでの分析から、保護的なレコメンデーションを行うことである。
論文 参考訳(メタデータ) (2020-09-24T01:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。