論文の概要: Application of deep learning to camera trap data for ecologists in
planning / engineering -- Can captivity imagery train a model which
generalises to the wild?
- arxiv url: http://arxiv.org/abs/2111.12805v1
- Date: Wed, 24 Nov 2021 21:29:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 15:22:04.900007
- Title: Application of deep learning to camera trap data for ecologists in
planning / engineering -- Can captivity imagery train a model which
generalises to the wild?
- Title(参考訳): 深層学習の生態学者のためのカメラトラップデータへの適用 -- キャピタリティ画像は、野生に一般化するモデルを訓練できるだろうか?
- Authors: Ryan Curry and Cameron Trotter and Andrew Stephen McGough
- Abstract要約: ディープラーニングモデルは、カメラトラップ画像内の動物を自動的に検出し、分類するように訓練することができる。
本研究は,稀少動物の画像を用いて訓練データセットを生成する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the abundance of a species is the first step towards
understanding both its long-term sustainability and the impact that we may be
having upon it. Ecologists use camera traps to remotely survey for the presence
of specific animal species. Previous studies have shown that deep learning
models can be trained to automatically detect and classify animals within
camera trap imagery with high levels of confidence. However, the ability to
train these models is reliant upon having enough high-quality training data.
What happens when the animal is rare or the data sets are non-existent? This
research proposes an approach of using images of rare animals in captivity
(focusing on the Scottish wildcat) to generate the training dataset. We explore
the challenges associated with generalising a model trained on captivity data
when applied to data collected in the wild. The research is contextualised by
the needs of ecologists in planning/engineering. Following precedents from
other research, this project establishes an ensemble for object detection,
image segmentation and image classification models which are then tested using
different image manipulation and class structuring techniques to encourage
model generalisation. The research concludes, in the context of Scottish
wildcat, that models trained on captivity imagery cannot be generalised to wild
camera trap imagery using existing techniques. However, final model
performances based on a two-class model Wildcat vs Not Wildcat achieved an
overall accuracy score of 81.6% and Wildcat accuracy score of 54.8% on a test
set in which only 1% of images contained a wildcat. This suggests using
captivity images is feasible with further research. This is the first research
which attempts to generate a training set based on captivity data and the first
to explore the development of such models in the context of ecologists in
planning/engineering.
- Abstract(参考訳): 種の豊富さを理解することは、その長期的な持続可能性とその影響を理解するための第一歩である。
生態学者はカメラトラップを使って、特定の動物の存在をリモートで調査する。
これまでの研究で、深層学習モデルは、カメラトラップ画像内の動物を自動的に検出し分類するために、高い信頼度で訓練できることが示されている。
しかし、これらのモデルのトレーニング能力は、十分な高品質のトレーニングデータを持つことに依存している。
希少な動物やデータセットが存在しないときに何が起こるのか?
本研究は,稀少動物のイメージを捕獲性(スコットランドの野生動物に焦点をあてる)でトレーニングデータセットを生成するアプローチを提案する。
我々は、野生で収集されたデータに適用するときに、捕獲データに基づいて訓練されたモデルを一般化することに関連する課題を考察する。
この研究は、計画/工学における生態学者のニーズによって文脈化されている。
本研究は, 物体検出, 画像分割, 画像分類モデルのためのアンサンブルを構築し, モデル一般化を促進するために, 異なる画像操作とクラス構造化技術を用いて実験を行う。
この研究は、スコットランドのワイルドキャットの文脈において、捕獲イメージで訓練されたモデルは、既存の技術を使って野生のカメラトラップイメージに一般化できないと結論づけている。
しかし、2クラスモデルwildcat vs not wildcatによる最終的なモデルパフォーマンスは、全体の精度スコア81.6%、wildcat精度スコア54.8%を達成し、そのテストセットでは画像の1%しかwildcatを含んでいなかった。
これは、さらなる研究により、キャプチャー画像の使用が実現可能であることを示唆する。
これは、captivityデータに基づくトレーニングセットの生成を試みる最初の研究であり、そのようなモデルの開発を計画/エンジニアリングにおける生態学者の文脈で探求した最初の研究である。
関連論文リスト
- Metadata augmented deep neural networks for wild animal classification [4.466592229376465]
本研究では,特定のメタデータと画像データを組み合わせることにより,野生動物の分類を改善する新しいアプローチを提案する。
ノルウェーの気候に焦点を当てたデータセットを用いて、我々のモデルは既存の手法と比較して98.4%から98.9%の精度向上を示した。
論文 参考訳(メタデータ) (2024-09-07T13:36:26Z) - Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - How many images do I need? Understanding how sample size per class
affects deep learning model performance metrics for balanced designs in
autonomous wildlife monitoring [0.0]
本研究では,各クラス(種目)のサンプルサイズを段階的に増加させるために,ディープラーニングモデルの性能に関する課題を深く検討する。
我々は,動物種毎の画像の精度を推定するための近似式を生態学者に提供する。
論文 参考訳(メタデータ) (2020-10-16T06:28:35Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z) - Deformation-aware Unpaired Image Translation for Pose Estimation on
Laboratory Animals [56.65062746564091]
我々は,神経回路が行動をどのようにオーケストレーションするかを研究するために,手動による監督を使わずに,神経科学モデル生物のポーズを捉えることを目的としている。
我々の重要な貢献は、未完成の画像翻訳フレームワークにおける外観、形状、ポーズの明示的で独立したモデリングである。
ショウジョウバエ(ハエ)、線虫(線虫)、ダニオ・レリオ(ゼブラフィッシュ)のポーズ推定精度の向上を実証した。
論文 参考訳(メタデータ) (2020-01-23T15:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。