論文の概要: Unifying data for fine-grained visual species classification
- arxiv url: http://arxiv.org/abs/2009.11433v1
- Date: Thu, 24 Sep 2020 01:04:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:22:57.913311
- Title: Unifying data for fine-grained visual species classification
- Title(参考訳): きめ細かい視覚種分類のための統一データ
- Authors: Sayali Kulkarni, Tomer Gadot, Chen Luo, Tanya Birch, Eric Fegraus
- Abstract要約: 465種にまたがる2.9M画像に基づいて訓練した,初期の深部畳み込みニューラルネットワークモデルを提案する。
長期的な目標は、科学者が種数と人口の健康状態のほぼリアルタイムでの分析から、保護的なレコメンデーションを行うことである。
- 参考スコア(独自算出の注目度): 15.14767769034929
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Wildlife monitoring is crucial to nature conservation and has been done by
manual observations from motion-triggered camera traps deployed in the field.
Widespread adoption of such in-situ sensors has resulted in unprecedented data
volumes being collected over the last decade. A significant challenge exists to
process and reliably identify what is in these images efficiently. Advances in
computer vision are poised to provide effective solutions with custom AI models
built to automatically identify images of interest and label the species in
them. Here we outline the data unification effort for the Wildlife Insights
platform from various conservation partners, and the challenges involved. Then
we present an initial deep convolutional neural network model, trained on 2.9M
images across 465 fine-grained species, with a goal to reduce the load on human
experts to classify species in images manually. The long-term goal is to enable
scientists to make conservation recommendations from near real-time analysis of
species abundance and population health.
- Abstract(参考訳): 野生生物のモニタリングは自然保護に不可欠であり、フィールドに配備されたモーショントリガーカメラトラップから手動で観察された。
このようなセンサーの普及により、過去10年間に前例のないデータ量が収集されてきた。
これらの画像に含まれるものを効率的に処理し、確実に識別するための大きな課題がある。
コンピュータービジョンの進歩は、興味のある画像を自動的に識別し、それらの種をラベル付けするために構築されたカスタムAIモデルによる効果的なソリューションを提供することを目指している。
本稿では,様々な保全パートナーによる野生生物インサイトプラットフォームにおけるデータ統一の取り組みと課題について概説する。
次に、465種にわたる2.9M画像に基づいてトレーニングされた初期の深部畳み込みニューラルネットワークモデルを提案する。
長期的な目標は、種の存在量と個体数をほぼリアルタイムで分析し、科学者が自然保護を推奨できるようにすることである。
関連論文リスト
- Metadata augmented deep neural networks for wild animal classification [4.466592229376465]
本研究では,特定のメタデータと画像データを組み合わせることにより,野生動物の分類を改善する新しいアプローチを提案する。
ノルウェーの気候に焦点を当てたデータセットを用いて、我々のモデルは既存の手法と比較して98.4%から98.9%の精度向上を示した。
論文 参考訳(メタデータ) (2024-09-07T13:36:26Z) - Image-Based Leopard Seal Recognition: Approaches and Challenges in Current Automated Systems [0.0]
本稿では,従来の写真を用いた自然の生息地におけるアザラシ認識の課題と進歩について考察する。
ヒョウアザラシ EmphHydrurga leptonyx は南極の生態系において重要な種である。
機械学習の出現、特にビジョントランスフォーマーの応用は、種のモニタリングにおける効率性と精度の新しい時代を告げている。
論文 参考訳(メタデータ) (2024-08-14T03:35:11Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Spatial Implicit Neural Representations for Global-Scale Species Mapping [72.92028508757281]
ある種が観察された場所の集合を考えると、その種がどこにいても存在しないかを予測するためのモデルを構築することが目的である。
従来の手法は、新たな大規模クラウドソースデータセットを活用するのに苦労している。
本研究では,47k種の地理的範囲を同時に推定するために,空間入射ニューラル表現(SINR)を用いる。
論文 参考訳(メタデータ) (2023-06-05T03:36:01Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Deep learning with self-supervision and uncertainty regularization to
count fish in underwater images [28.261323753321328]
効果的な保全活動には、効果的な人口監視が必要です。
画像サンプリングによる人口のモニタリングにより、データ収集は安価で広く、侵入性が低くなっている。
このようなデータから動物を数えることは、特に騒々しい画像に密に詰め込まれた場合、困難です。
深層学習は多くのコンピュータビジョンタスクの最先端の手法であるが、動物を数えるためにはまだ十分に研究されていない。
論文 参考訳(メタデータ) (2021-04-30T13:02:19Z) - Appearance Consensus Driven Self-Supervised Human Mesh Recovery [67.20942777949793]
単眼画像から人間のポーズや形状を推定する自己教師付きメッシュ回復フレームワークを提案する。
標準モデルに基づく3次元ポーズ推定ベンチマークの最先端結果を得る。
その結果、色付きメッシュ予測により、ポーズや形状推定以外にも、さまざまな外観関連タスクにフレームワークの使用が開放される。
論文 参考訳(メタデータ) (2020-08-04T05:40:39Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。