論文の概要: An explainable deep vision system for animal classification and
detection in trail-camera images with automatic post-deployment retraining
- arxiv url: http://arxiv.org/abs/2010.11472v3
- Date: Tue, 8 Dec 2020 02:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 06:49:08.786318
- Title: An explainable deep vision system for animal classification and
detection in trail-camera images with automatic post-deployment retraining
- Title(参考訳): 自動配置再訓練による足跡カメラ画像の動物分類・検出のための説明可能な深部視覚システム
- Authors: Golnaz Moallem (1), Don D. Pathirage (1), Joel Reznick (1), James
Gallagher (2), Hamed Sari-Sarraf (1) ((1) Applied Vision Lab Texas Tech
University (2) Texas Parks and Wildlife Department)
- Abstract要約: 本稿では,テキサス・パークス野生生物局の管理下にあるフィールドから撮影したトレイルカメラ画像における動物検出のための自動視覚システムについて紹介する。
2段階の深層畳み込みニューラルネットワークパイプラインを実装し,動物を含む画像を第1段階で発見し,その画像を処理して第2段階の鳥を検出する。
動物分類システムは、動物画像の感度を93%、特異度を96%と分類する。鳥類検出システムは、感度を93%以上、特異度を92%、インターセクション・オーバー・ユニオン率を68%以上達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces an automated vision system for animal detection in
trail-camera images taken from a field under the administration of the Texas
Parks and Wildlife Department. As traditional wildlife counting techniques are
intrusive and labor intensive to conduct, trail-camera imaging is a
comparatively non-intrusive method for capturing wildlife activity. However,
given the large volume of images produced from trail-cameras, manual analysis
of the images remains time-consuming and inefficient. We implemented a
two-stage deep convolutional neural network pipeline to find animal-containing
images in the first stage and then process these images to detect birds in the
second stage. The animal classification system classifies animal images with
overall 93% sensitivity and 96% specificity. The bird detection system achieves
better than 93% sensitivity, 92% specificity, and 68% average
Intersection-over-Union rate. The entire pipeline processes an image in less
than 0.5 seconds as opposed to an average 30 seconds for a human labeler. We
also addressed post-deployment issues related to data drift for the animal
classification system as image features vary with seasonal changes. This system
utilizes an automatic retraining algorithm to detect data drift and update the
system. We introduce a novel technique for detecting drifted images and
triggering the retraining procedure. Two statistical experiments are also
presented to explain the prediction behavior of the animal classification
system. These experiments investigate the cues that steers the system towards a
particular decision. Statistical hypothesis testing demonstrates that the
presence of an animal in the input image significantly contributes to the
system's decisions.
- Abstract(参考訳): 本稿では,テキサス・パークス野生生物局の管理下にあるフィールドから撮影したトレイルカメラ画像における動物検出の自動視覚システムについて紹介する。
伝統的な野生生物の計数技術は侵入的で労働集約的であるため、トレイルカメライメージングは野生生物の活動を捉えるための比較的非侵入的な方法である。
しかし、トレイルカメラから生成される大量の画像を考えると、画像の手動分析は時間がかかり、非効率である。
2段階の深層畳み込みニューラルネットワークパイプラインを導入し,動物を含む画像を第1段階で発見し,その画像を処理して第2段階の鳥を検出する。
動物分類システムは、動物画像の感度を93%、特異度を96%と分類する。
鳥検出システムは93%以上の感度、92%の特異性、および68%の平均交点オーバー結合率を達成している。
パイプライン全体は、人間のラベラーの平均30秒に対して、0.5秒未満で画像を処理します。
また,画像の特徴が季節変化によって異なるため,動物分類システムにおけるデータドリフトに関するデプロイ後の問題にも対処した。
本システムは,データドリフトの検出と更新に自動再訓練アルゴリズムを用いる。
ドリフト画像の検出と再トレーニングのトリガを行う新しい手法を提案する。
動物分類システムの予測挙動を説明するために, 2つの統計実験を行った。
これらの実験は、特定の決定に向けてシステムを操る手がかりを調査する。
統計的仮説テストは、入力画像中の動物の存在がシステムの決定に大きく貢献することを示している。
関連論文リスト
- Metadata augmented deep neural networks for wild animal classification [4.466592229376465]
本研究では,特定のメタデータと画像データを組み合わせることにより,野生動物の分類を改善する新しいアプローチを提案する。
ノルウェーの気候に焦点を当てたデータセットを用いて、我々のモデルは既存の手法と比較して98.4%から98.9%の精度向上を示した。
論文 参考訳(メタデータ) (2024-09-07T13:36:26Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - Exploiting Depth Information for Wildlife Monitoring [0.0]
深度推定を用いて動物を検知・識別するカメラトラップを用いた自動手法を提案する。
個々の動物を検出・識別するために,いわゆるインスタンスセグメンテーションのための新しい手法D-Mask R-CNNを提案する。
実験により,動物検出における平均精度スコアの改善による追加深度推定の利点が示された。
論文 参考訳(メタデータ) (2021-02-10T18:10:34Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Remote Sensing Image Scene Classification Meets Deep Learning:
Challenges, Methods, Benchmarks, and Opportunities [81.29441139530844]
本稿では,160以上の論文を網羅し,リモートセンシング画像シーン分類のためのディープラーニング手法の体系的調査を行う。
リモートセンシング画像シーンの分類と調査の主な課題について論じる。
リモートセンシング画像シーン分類に使用されるベンチマークを導入し,2ダース以上の代表アルゴリズムの性能を要約する。
論文 参考訳(メタデータ) (2020-05-03T14:18:00Z) - Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification [1.94742788320879]
カメラトラップは、生態系を乱すことなく、野生生物を自然の生息地で観察するために広く使用されている。
現在、世界中の様々な生態保護地域に大量のカメラトラップが配備されており、数十年にわたってデータを収集している。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
本研究では, チャネル間の3次元バースト画像とシーケンス情報を含むコンカレントマスクを用いて, ROC AUCを未知のカメラサイトからテストセットで20%改善することを示した。
論文 参考訳(メタデータ) (2020-04-30T21:47:14Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。