論文の概要: The SA-FARI Dataset: Segment Anything in Footage of Animals for Recognition and Identification
- arxiv url: http://arxiv.org/abs/2511.15622v1
- Date: Wed, 19 Nov 2025 17:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.915539
- Title: The SA-FARI Dataset: Segment Anything in Footage of Animals for Recognition and Identification
- Title(参考訳): SA-FARIデータセット:認識と識別のための動物の足場におけるセグメンテーション
- Authors: Dante Francisco Wasmuht, Otto Brookes, Maximillian Schall, Pablo Palencia, Chris Beirne, Tilo Burghardt, Majid Mirmehdi, Hjalmar Kühl, Mimi Arandjelovic, Sam Pottie, Peter Bermant, Brandon Asheim, Yi Jin Toh, Adam Elzinga, Jason Holmberg, Andrew Whitworth, Eleanor Flatt, Laura Gustafson, Chaitanya Ryali, Yuan-Ting Hu, Baishan Guo, Andrew Westbury, Kate Saenko, Didac Suris,
- Abstract要約: 野生動物のための最大のオープンソースMATデータセットであるSA-FARIを紹介する。
これは、約10年間(2014-2024年)に4大陸の741箇所から収集された11,609のカメラトラップビデオから成っている。
16,224個のマスクレットのアイデンティティと942,702個のバウンディングボックス、セグメンテーションマスク、および種ラベルを含む46時間の濃密な注釈付き映像で、それぞれのビデオが総括的に注釈付けされる。
SAM 3を含む最先端の視覚言語モデルを用いて,SA-FARIの総合的なベンチマークを行い,種別および汎用性の両方で評価した。
- 参考スコア(独自算出の注目度): 30.709102465224746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated video analysis is critical for wildlife conservation. A foundational task in this domain is multi-animal tracking (MAT), which underpins applications such as individual re-identification and behavior recognition. However, existing datasets are limited in scale, constrained to a few species, or lack sufficient temporal and geographical diversity - leaving no suitable benchmark for training general-purpose MAT models applicable across wild animal populations. To address this, we introduce SA-FARI, the largest open-source MAT dataset for wild animals. It comprises 11,609 camera trap videos collected over approximately 10 years (2014-2024) from 741 locations across 4 continents, spanning 99 species categories. Each video is exhaustively annotated culminating in ~46 hours of densely annotated footage containing 16,224 masklet identities and 942,702 individual bounding boxes, segmentation masks, and species labels. Alongside the task-specific annotations, we publish anonymized camera trap locations for each video. Finally, we present comprehensive benchmarks on SA-FARI using state-of-the-art vision-language models for detection and tracking, including SAM 3, evaluated with both species-specific and generic animal prompts. We also compare against vision-only methods developed specifically for wildlife analysis. SA-FARI is the first large-scale dataset to combine high species diversity, multi-region coverage, and high-quality spatio-temporal annotations, offering a new foundation for advancing generalizable multianimal tracking in the wild. The dataset is available at $\href{https://www.conservationxlabs.com/sa-fari}{\text{conservationxlabs.com/SA-FARI}}$.
- Abstract(参考訳): ビデオの自動解析は野生生物の保全に不可欠である。
この領域の基本的なタスクはマルチアニマルトラッキング(MAT)であり、個々の再識別や行動認識などのアプリケーションを支える。
しかし、既存のデータセットは規模が限られており、数種に制限されているか、時間的および地理的な多様性が不足しているため、野生動物の個体群に適用可能な汎用MATモデルを訓練するための適切なベンチマークは残っていない。
これを解決するために,野生動物のためのオープンソースのMATデータセットであるSA-FARIを紹介する。
約10年間(2014-2024年)に4大陸の741箇所から収集された11,609のカメラトラップビデオから成っている。
それぞれのビデオは16,224個のマスクレットのアイデンティティと942,702個のバウンディングボックス、セグメンテーションマスク、および種ラベルを含む、46時間の濃密な注釈付き映像で総括的に注釈付けされている。
タスク固有のアノテーションに加えて、ビデオ毎に匿名化されたカメラトラップ位置を公開します。
最後に,SA-FARIに関する包括的ベンチマークを,種特異的および一般的な動物プロンプトを用いて評価したSAM 3を含む最先端の視覚言語モデルを用いて行った。
また,野生生物分析に特化して開発された視覚のみの手法との比較を行った。
SA-FARIは、高種多様性、多地域カバレッジ、高品質の時空間アノテーションを組み合わせた最初の大規模データセットであり、野生における一般化可能な多動物追跡の新たな基盤を提供する。
データセットは$\href{https://www.conservationxlabs.com/sa-fari}{\text{conservationxlabs.com/SA-FARI}}$で入手できる。
関連論文リスト
- The iNaturalist Sounds Dataset [60.157076990024606]
iNatSoundsは、5500種以上の音をキャプチャする23万のオーディオファイルのコレクションで、世界中で27,000人以上のレコーダーが貢献している。
このデータセットは、鳥類、哺乳類、昆虫、虫類、両生類からの音を包含し、iNaturalistに提出された観察から得られたオーディオおよび種名を含む。
我々は、次世代の公的なエンゲージメントアプリケーションを支えるこのデータに基づいて訓練されたモデルを構想し、大規模なオーディオコレクションの処理において生物学者、生態学者、土地利用管理者を支援する。
論文 参考訳(メタデータ) (2025-05-31T02:07:37Z) - MammAlps: A multi-view video behavior monitoring dataset of wild mammals in the Swiss Alps [41.58000025132071]
MammAlps(マムアルプス)は、スイス国立公園の9つのカメラトラップから収集した野生生物の行動のデータセットである。
6135個の単一動物クリップに基づいて,最初の階層的・マルチモーダルな動物行動認識ベンチマークを提案する。
また,活動,種,個体数,気象条件の同定を目的とした第2の生態指標を提案する。
論文 参考訳(メタデータ) (2025-03-23T21:51:58Z) - OpenAnimalTracks: A Dataset for Animal Track Recognition [2.3020018305241337]
動物足跡の自動分類と検出を容易にするために設計された,最初の公開ラベル付きデータセットであるOpenAnimalTracksデータセットを紹介する。
代表分類器と検出モデルを用いた自動フットプリント識別の可能性を示す。
われわれのデータセットは、動物の自動追跡技術の道を切り開き、生物多様性の保護と管理の能力を高めることを願っている。
論文 参考訳(メタデータ) (2024-06-14T00:37:17Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - Animal Kingdom: A Large and Diverse Dataset for Animal Behavior
Understanding [4.606145900630665]
大規模で多様なデータセットであるAnimal Kingdomを作成し、複数の注釈付きタスクを提供します。
私たちのデータセットには、関連する動物行動セグメントをローカライズする50時間のアノテーション付きビデオが含まれています。
本研究では,未確認新種動物を用いた行動認識の一般的な特徴と特定の特徴を学習する協調行動認識(CARe)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T02:05:15Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。