論文の概要: AnimalClue: Recognizing Animals by their Traces
- arxiv url: http://arxiv.org/abs/2507.20240v1
- Date: Sun, 27 Jul 2025 11:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.28378
- Title: AnimalClue: Recognizing Animals by their Traces
- Title(参考訳): AnimalClue: 動物をその痕跡で認識する
- Authors: Risa Shinoda, Nakamasa Inoue, Iro Laina, Christian Rupprecht, Hirokatsu Kataoka,
- Abstract要約: AnimalClueは、間接的な証拠の画像から種を特定するための最初の大規模なデータセットである。
968種、200家族、65の注文がある。
既存のデータセットとは異なり、AnimalClueは分類、検出、インスタンスセグメンテーションタスクに固有の課題を提示している。
- 参考スコア(独自算出の注目度): 43.09184077724619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wildlife observation plays an important role in biodiversity conservation, necessitating robust methodologies for monitoring wildlife populations and interspecies interactions. Recent advances in computer vision have significantly contributed to automating fundamental wildlife observation tasks, such as animal detection and species identification. However, accurately identifying species from indirect evidence like footprints and feces remains relatively underexplored, despite its importance in contributing to wildlife monitoring. To bridge this gap, we introduce AnimalClue, the first large-scale dataset for species identification from images of indirect evidence. Our dataset consists of 159,605 bounding boxes encompassing five categories of indirect clues: footprints, feces, eggs, bones, and feathers. It covers 968 species, 200 families, and 65 orders. Each image is annotated with species-level labels, bounding boxes or segmentation masks, and fine-grained trait information, including activity patterns and habitat preferences. Unlike existing datasets primarily focused on direct visual features (e.g., animal appearances), AnimalClue presents unique challenges for classification, detection, and instance segmentation tasks due to the need for recognizing more detailed and subtle visual features. In our experiments, we extensively evaluate representative vision models and identify key challenges in animal identification from their traces. Our dataset and code are available at https://dahlian00.github.io/AnimalCluePage/
- Abstract(参考訳): 野生生物の観察は生物多様性の保全において重要な役割を担い、野生生物の個体数や種間相互作用を監視するための堅牢な方法論を必要とする。
コンピュータビジョンの最近の進歩は、動物検出や種識別など、野生生物の基本的な観察タスクの自動化に大きく貢献している。
しかしながら、フットプリントや糞のような間接的な証拠から種を正確に同定することは、野生生物のモニタリングに寄与することの重要性にもかかわらず、比較的過小評価されている。
このギャップを埋めるために、間接的な証拠の画像から種を特定するための最初の大規模データセットであるAnimalClueを紹介します。
我々のデータセットは159,605個のバウンディングボックスで構成されており、フットプリント、糞、卵、骨、羽毛の5つの間接的手がかりを含んでいる。
968種、200家族、65の注文がある。
各画像には、種レベルのラベル、バウンディングボックスまたはセグメンテーションマスク、そしてアクティビティパターンや生息地の好みを含むきめ細かい特徴情報が注釈付けされている。
主に直接的な視覚的特徴(例えば動物の外観)に焦点を当てた既存のデータセットとは異なり、AnimalClueはより詳細で微妙な視覚的特徴を認識する必要があるため、分類、検出、インスタンスセグメンテーションタスクに固有の課題を提示している。
実験では,代表的な視覚モデルについて広範囲に評価し,その痕跡から動物識別における重要な課題を同定した。
私たちのデータセットとコードはhttps://dahlian00.github.io/AnimalCluePage/で利用可能です。
関連論文リスト
- BioCLIP 2: Emergent Properties from Scaling Hierarchical Contrastive Learning [51.341003735575335]
生体視覚モデルでは,大規模コントラスト視覚言語学習により創発的行動が観察される。
我々は、異なる種を区別するために、TreeOfLife-200MでBioCLIP 2を訓練する。
得られたBioCLIP 2の埋め込み空間における創発的特性を同定する。
論文 参考訳(メタデータ) (2025-05-29T17:48:20Z) - PetFace: A Large-Scale Dataset and Benchmark for Animal Identification [2.3020018305241337]
動物顔識別のための包括的リソースであるPetFaceデータセットを紹介する。
PetFaceには、13の動物科の257,484個体と、実験動物とペット動物の両方を含む319種の品種が含まれている。
我々は、見知らぬ個人に対する再識別や、見つからない個人に対する検証を含むベンチマークを提供する。
論文 参考訳(メタデータ) (2024-07-18T14:28:31Z) - Fish-Vista: A Multi-Purpose Dataset for Understanding & Identification of Traits from Images [18.79726520825725]
我々は,コンピュータビジョンにおける問題定式化を用いた画像から直接水生生物の視覚特性を分析するために設計された,最初の生物画像データセットであるFish-Visual Trait Analysis(Fish-Vista)を紹介した。
Fish-Vistaには4,154種の魚種にまたがる69,126枚の注釈付き画像が含まれており、種分類、形質識別、形質分類の3つの下流業務に役立てるために作成・整理されている。
論文 参考訳(メタデータ) (2024-07-10T20:10:56Z) - OpenAnimalTracks: A Dataset for Animal Track Recognition [2.3020018305241337]
動物足跡の自動分類と検出を容易にするために設計された,最初の公開ラベル付きデータセットであるOpenAnimalTracksデータセットを紹介する。
代表分類器と検出モデルを用いた自動フットプリント識別の可能性を示す。
われわれのデータセットは、動物の自動追跡技術の道を切り開き、生物多様性の保護と管理の能力を高めることを願っている。
論文 参考訳(メタデータ) (2024-06-14T00:37:17Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Fine-grained Species Recognition with Privileged Pooling: Better Sample
Efficiency Through Supervised Attention [26.136331738529243]
トレーニングデータに対するキーポイントアノテーションの形式で特権情報を利用する教師付き画像分類手法を提案する。
我々の主な動機は、生物多様性モデリングのような生態学的応用のための動物種の認識である。
3つの異なる動物種のデータセットを用いた実験では、特権プールを持つ深層ネットワークがより効率的に小さなトレーニングセットを利用でき、より一般化できることが示されている。
論文 参考訳(メタデータ) (2020-03-20T10:03:01Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。