論文の概要: The iWildCam 2021 Competition Dataset
- arxiv url: http://arxiv.org/abs/2105.03494v1
- Date: Fri, 7 May 2021 20:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:59:04.039642
- Title: The iWildCam 2021 Competition Dataset
- Title(参考訳): iWildCam 2021コンペティションデータセット
- Authors: Sara Beery, Arushi Agarwal, Elijah Cole, Vighnesh Birodkar
- Abstract要約: 生態学者は、世界中の動物集団を監視するためにカメラトラップを使用します。
種の豊富さを推定するには、生態学者はどの種が見られたかだけでなく、各種の個体数を知る必要がある。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
- 参考スコア(独自算出の注目度): 5.612688040565423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera traps enable the automatic collection of large quantities of image
data. Ecologists use camera traps to monitor animal populations all over the
world. In order to estimate the abundance of a species from camera trap data,
ecologists need to know not just which species were seen, but also how many
individuals of each species were seen. Object detection techniques can be used
to find the number of individuals in each image. However, since camera traps
collect images in motion-triggered bursts, simply adding up the number of
detections over all frames is likely to lead to an incorrect estimate.
Overcoming these obstacles may require incorporating spatio-temporal reasoning
or individual re-identification in addition to traditional species detection
and classification.
We have prepared a challenge where the training data and test data are from
different cameras spread across the globe. The set of species seen in each
camera overlap, but are not identical. The challenge is to classify species and
count individual animals across sequences in the test cameras.
- Abstract(参考訳): カメラトラップは大量の画像データの自動収集を可能にする。
生態学者は、世界中の動物集団を監視するためにカメラトラップを使用します。
カメラトラップデータから種の存在を推定するためには、生態学者はどの種が見られたかだけでなく、各種の個体数も知る必要がある。
オブジェクト検出技術は、各画像内の個人数を見つけるのに使うことができる。
しかし、カメラトラップは、モーショントリガーバーストで画像を収集するので、単にフレーム全体の検出回数を増やせば、誤った推定につながる可能性が高い。
これらの障害を克服するには、伝統的な種の検出と分類に加えて、時空間的推論や個別の再同定を組み込む必要がある。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
各カメラで見られる種群は重複しているが、同一ではない。
課題は、種を分類し、個々の動物をテストカメラのシーケンスで数えることだ。
関連論文リスト
- Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification [1.94742788320879]
カメラトラップは、生態系を乱すことなく、野生生物を自然の生息地で観察するために広く使用されている。
現在、世界中の様々な生態保護地域に大量のカメラトラップが配備されており、数十年にわたってデータを収集している。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
本研究では, チャネル間の3次元バースト画像とシーケンス情報を含むコンカレントマスクを用いて, ROC AUCを未知のカメラサイトからテストセットで20%改善することを示した。
論文 参考訳(メタデータ) (2020-04-30T21:47:14Z) - The iWildCam 2020 Competition Dataset [9.537627294351292]
カメラトラップは大量の画像データの自動収集を可能にする。
我々は最近,カメラトラップ画像における自動種分類への取り組みを進めている。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
課題は、テストカメラトラップ内の種を正しく分類することだ。
論文 参考訳(メタデータ) (2020-04-21T23:25:13Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。