論文の概要: The iWildCam 2020 Competition Dataset
- arxiv url: http://arxiv.org/abs/2004.10340v1
- Date: Tue, 21 Apr 2020 23:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:13:41.790507
- Title: The iWildCam 2020 Competition Dataset
- Title(参考訳): iWildCam 2020のコンペティションデータセット
- Authors: Sara Beery, Elijah Cole, Arvi Gjoka
- Abstract要約: カメラトラップは大量の画像データの自動収集を可能にする。
我々は最近,カメラトラップ画像における自動種分類への取り組みを進めている。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
課題は、テストカメラトラップ内の種を正しく分類することだ。
- 参考スコア(独自算出の注目度): 9.537627294351292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera traps enable the automatic collection of large quantities of image
data. Biologists all over the world use camera traps to monitor animal
populations. We have recently been making strides towards automatic species
classification in camera trap images. However, as we try to expand the
geographic scope of these models we are faced with an interesting question: how
do we train models that perform well on new (unseen during training) camera
trap locations? Can we leverage data from other modalities, such as citizen
science data and remote sensing data? In order to tackle this problem, we have
prepared a challenge where the training data and test data are from different
cameras spread across the globe. For each camera, we provide a series of remote
sensing imagery that is tied to the location of the camera. We also provide
citizen science imagery from the set of species seen in our data. The challenge
is to correctly classify species in the test camera traps.
- Abstract(参考訳): カメラトラップは大量の画像データの自動収集を可能にする。
世界中の生物学者は、動物集団を監視するためにカメラトラップを使用します。
我々は最近,カメラトラップ画像における自動種分類への取り組みを進めている。
しかし、これらのモデルの地理的範囲を拡大しようとすると、興味深い疑問に直面している。新しい(トレーニング中に見えない)カメラトラップロケーションでうまく機能するモデルをトレーニングするには、どうすればよいのか?
市民科学データやリモートセンシングデータなど、他のモダリティからのデータを活用できますか?
この問題に対処するため,我々は,トレーニングデータとテストデータは世界中に広がる異なるカメラからのものであるという課題に備えた。
各カメラに対して、カメラの位置と結びついた一連のリモートセンシング画像を提供する。
また、私たちのデータに見られる種の集合から市民科学の画像も提供します。
挑戦は、テストカメラトラップの種を正しく分類することである。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Low-power, Continuous Remote Behavioral Localization with Event Cameras [9.107129038623242]
イベントカメラは、バッテリー依存のリモート監視にユニークな利点を提供する。
我々はこのセンサを用いて、静電ディスプレイと呼ばれるチンストラップペンギンの挙動を定量化する。
実験により、イベントカメラの動作に対する自然な応答は、継続的な行動監視と検出に有効であることが示された。
論文 参考訳(メタデータ) (2023-12-06T14:58:03Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Deep Learning for Camera Calibration and Beyond: A Survey [100.75060862015945]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - The iWildCam 2021 Competition Dataset [5.612688040565423]
生態学者は、世界中の動物集団を監視するためにカメラトラップを使用します。
種の豊富さを推定するには、生態学者はどの種が見られたかだけでなく、各種の個体数を知る必要がある。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
論文 参考訳(メタデータ) (2021-05-07T20:27:22Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Sequence Information Channel Concatenation for Improving Camera Trap
Image Burst Classification [1.94742788320879]
カメラトラップは、生態系を乱すことなく、野生生物を自然の生息地で観察するために広く使用されている。
現在、世界中の様々な生態保護地域に大量のカメラトラップが配備されており、数十年にわたってデータを収集している。
既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。
本研究では, チャネル間の3次元バースト画像とシーケンス情報を含むコンカレントマスクを用いて, ROC AUCを未知のカメラサイトからテストセットで20%改善することを示した。
論文 参考訳(メタデータ) (2020-04-30T21:47:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。