論文の概要: Weakly Supervised Faster-RCNN+FPN to classify animals in camera trap
images
- arxiv url: http://arxiv.org/abs/2208.14060v1
- Date: Tue, 30 Aug 2022 08:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:38:50.632497
- Title: Weakly Supervised Faster-RCNN+FPN to classify animals in camera trap
images
- Title(参考訳): カメラトラップ画像で動物を分類する高速RCNN+FPN
- Authors: Pierrick Pochelu, Clara Erard, Philippe Cordier, Serge G. Petiton,
Bruno Conche
- Abstract要約: カメラトラップは、生息地や行動のためにこれまで観測できなかった多くの種の動物研究に革命をもたらした。
ディープラーニングは、分類や空のイメージに従って画像分類を自動化するために、ワークロードを克服する可能性がある。
Weakly Object Detection Faster-RCNN+FPNというワークフローを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera traps have revolutionized the animal research of many species that
were previously nearly impossible to observe due to their habitat or behavior.
They are cameras generally fixed to a tree that take a short sequence of images
when triggered. Deep learning has the potential to overcome the workload to
automate image classification according to taxon or empty images. However, a
standard deep neural network classifier fails because animals often represent a
small portion of the high-definition images. That is why we propose a workflow
named Weakly Object Detection Faster-RCNN+FPN which suits this challenge. The
model is weakly supervised because it requires only the animal taxon label per
image but doesn't require any manual bounding box annotations. First, it
automatically performs the weakly-supervised bounding box annotation using the
motion from multiple frames. Then, it trains a Faster-RCNN+FPN model using this
weak supervision. Experimental results have been obtained with two datasets
from a Papua New Guinea and Missouri biodiversity monitoring campaign, then on
an easily reproducible testbed.
- Abstract(参考訳): カメラトラップは、生息地や行動のためにこれまで観測できなかった多くの種の動物研究に革命をもたらした。
一般的には木に固定されたカメラで、トリガー時に短い画像列を取る。
ディープラーニングは、分類や空のイメージに従って画像分類を自動化するために、ワークロードを克服する可能性がある。
しかし、標準的なディープニューラルネットワーク分類器は、動物が高精細画像のごく一部を表現しているため失敗する。
そこで我々はWeakly Object Detection Faster-RCNN+FPNというワークフローを提案する。
このモデルは、画像ごとに動物分類ラベルのみを必要とするが、手動のバウンディングボックスアノテーションを必要としないため、弱い監督を受けている。
まず、複数のフレームからの動作を用いて、弱教師付き境界ボックスアノテーションを自動的に実行する。
そして、この弱い監督力を使ってFaster-RCNN+FPNモデルを訓練する。
パプアニューギニアとミズーリの生物多様性監視キャンペーンの2つのデータセットから、容易に再現可能なテストベッドで実験結果が得られた。
関連論文リスト
- POLO -- Point-based, multi-class animal detection [4.572449721501902]
POLOは多クラスオブジェクト検出モデルであり、ポイントラベルで完全にトレーニングすることができる。
POLOは、空中画像中の動物を数える際の精度を向上させる。
論文 参考訳(メタデータ) (2024-10-15T16:17:16Z) - PARDINUS: Weakly supervised discarding of photo-trapping empty images
based on autoencoders [1.3654846342364308]
写真撮影カメラは、動きが検出されたときに写真を撮って、動物が現れる像を捉えます。
これらの画像の大部分は空で、画像には野生生物は現れない。
画像のフィルタリングは、生物学者の手作業で何時間もかかるので、簡単な作業ではない。
論文 参考訳(メタデータ) (2023-12-22T16:33:45Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Inverting the Imaging Process by Learning an Implicit Camera Model [73.81635386829846]
本稿では,ディープニューラルネットワークとしてのカメラの物理画像処理を表現した,新しい暗黙カメラモデルを提案する。
本稿では,この暗黙カメラモデルが2つの逆撮像タスクに与える影響を実演する。
論文 参考訳(メタデータ) (2023-04-25T11:55:03Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - NEWTON: Neural View-Centric Mapping for On-the-Fly Large-Scale SLAM [51.21564182169607]
Newtonは、リアルタイム観測に基づいて動的にニューラルネットワークを構築するビュー中心のマッピング手法である。
本手法は,複数のニューラルネットワークを用いてシーンを表現することで,ループクロージャとシーン境界更新を用いたカメラポーズ更新を可能にする。
実験の結果,既存の世界中心型ニューラルネットワークSLAMシステムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-23T20:22:01Z) - Robustifying the Multi-Scale Representation of Neural Radiance Fields [86.69338893753886]
実世界の画像の両問題を克服するために,頑健なマルチスケールニューラルラジアンス場表現手法を提案する。
提案手法は,NeRFにインスパイアされたアプローチを用いて,マルチスケール画像効果とカメラ位置推定問題に対処する。
例えば、日常的に取得したマルチビュー画像からオブジェクトの正確な神経表現を行うためには、カメラの正確な位置推定が不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-09T11:46:45Z) - Choosing an Appropriate Platform and Workflow for Processing Camera Trap
Data using Artificial Intelligence [0.18350044465969417]
カメラトラップは、生態学者が野生生物種の分布、活動パターン、種間相互作用を研究する方法を変えてきた。
カメラトラップデータを処理する人工知能(AI)、特にディープラーニング(DL)の可能性に大きな注目を集めている。
これらのアプリケーションにDLを使用するには、オブジェクトを自動的に検出して種を分類するConvolutional Neural Networks(CNN)のようなトレーニングアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-02-04T18:13:09Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification [1.94742788320879]
カメラトラップは、生態系を乱すことなく、野生生物を自然の生息地で観察するために広く使用されている。
現在、世界中の様々な生態保護地域に大量のカメラトラップが配備されており、数十年にわたってデータを収集している。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
本研究では, チャネル間の3次元バースト画像とシーケンス情報を含むコンカレントマスクを用いて, ROC AUCを未知のカメラサイトからテストセットで20%改善することを示した。
論文 参考訳(メタデータ) (2020-04-30T21:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。