論文の概要: Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification
- arxiv url: http://arxiv.org/abs/2005.00116v2
- Date: Sat, 6 Jun 2020 02:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 03:29:47.156392
- Title: Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification
- Title(参考訳): カメラトラップ画像バースト分類改善のためのシーケンス情報チャネル結合
- Authors: Bhuvan Malladihalli Shashidhara, Darshan Mehta, Yash Kale, Dan Morris,
Megan Hazen
- Abstract要約: カメラトラップは、生態系を乱すことなく、野生生物を自然の生息地で観察するために広く使用されている。
現在、世界中の様々な生態保護地域に大量のカメラトラップが配備されており、数十年にわたってデータを収集している。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
本研究では, チャネル間の3次元バースト画像とシーケンス情報を含むコンカレントマスクを用いて, ROC AUCを未知のカメラサイトからテストセットで20%改善することを示した。
- 参考スコア(独自算出の注目度): 1.94742788320879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera Traps are extensively used to observe wildlife in their natural
habitat without disturbing the ecosystem. This could help in the early
detection of natural or human threats to animals, and help towards ecological
conservation. Currently, a massive number of such camera traps have been
deployed at various ecological conservation areas around the world, collecting
data for decades, thereby requiring automation to detect images containing
animals. Existing systems perform classification to detect if images contain
animals by considering a single image. However, due to challenging scenes with
animals camouflaged in their natural habitat, it sometimes becomes difficult to
identify the presence of animals from merely a single image. We hypothesize
that a short burst of images instead of a single image, assuming that the
animal moves, makes it much easier for a human as well as a machine to detect
the presence of animals. In this work, we explore a variety of approaches, and
measure the impact of using short image sequences (burst of 3 images) on
improving the camera trap image classification. We show that concatenating
masks containing sequence information and the images from the 3-image-burst
across channels, improves the ROC AUC by 20% on a test-set from unseen
camera-sites, as compared to an equivalent model that learns from a single
image.
- Abstract(参考訳): カメラトラップは、生態系を乱さずに自然の生息地で野生生物を観察するために広く使われている。
これは動物に対する自然または人間の脅威を早期に検出し、生態保護に役立てる可能性がある。
現在、世界中の様々な生態保護地域に多数のカメラトラップが配備されており、何十年にもわたってデータを収集しているため、動物を含む画像の自動検出が求められている。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
しかし、自然の生息地で動物がカモフラージュする困難な場面のため、単に1つのイメージから動物の存在を識別することは困難になる。
動物が動くと仮定して、1枚の画像ではなく、短い画像のバーストを仮定すると、人間や機械が動物の存在を検出するのがずっと簡単になる。
そこで本研究では,カメラトラップ画像分類の改善に対する,短い画像列(3画像のバースト)の使用による影響を,様々なアプローチで検討する。
本研究では, シーケンス情報と3画像バーストからの画像を含むマスクの連結により, roc aucを被写体から20%向上させることを, 1つの画像から学習する等価モデルと比較した。
関連論文リスト
- Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - The iWildCam 2021 Competition Dataset [5.612688040565423]
生態学者は、世界中の動物集団を監視するためにカメラトラップを使用します。
種の豊富さを推定するには、生態学者はどの種が見られたかだけでなく、各種の個体数を知る必要がある。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
論文 参考訳(メタデータ) (2021-05-07T20:27:22Z) - An explainable deep vision system for animal classification and
detection in trail-camera images with automatic post-deployment retraining [0.0]
本稿では,テキサス・パークス野生生物局の管理下にあるフィールドから撮影したトレイルカメラ画像における動物検出のための自動視覚システムについて紹介する。
2段階の深層畳み込みニューラルネットワークパイプラインを実装し,動物を含む画像を第1段階で発見し,その画像を処理して第2段階の鳥を検出する。
動物分類システムは、動物画像の感度を93%、特異度を96%と分類する。鳥類検出システムは、感度を93%以上、特異度を92%、インターセクション・オーバー・ユニオン率を68%以上達成する。
論文 参考訳(メタデータ) (2020-10-22T06:29:55Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。