論文の概要: MammAlps: A multi-view video behavior monitoring dataset of wild mammals in the Swiss Alps
- arxiv url: http://arxiv.org/abs/2503.18223v1
- Date: Sun, 23 Mar 2025 21:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:31:07.657368
- Title: MammAlps: A multi-view video behavior monitoring dataset of wild mammals in the Swiss Alps
- Title(参考訳): MammAlps:スイスアルプスの野生哺乳類のマルチビュービデオ行動監視データセット
- Authors: Valentin Gabeff, Haozhe Qi, Brendan Flaherty, Gencer Sumbül, Alexander Mathis, Devis Tuia,
- Abstract要約: MammAlps(マムアルプス)は、スイス国立公園の9つのカメラトラップから収集した野生生物の行動のデータセットである。
6135個の単一動物クリップに基づいて,最初の階層的・マルチモーダルな動物行動認識ベンチマークを提案する。
また,活動,種,個体数,気象条件の同定を目的とした第2の生態指標を提案する。
- 参考スコア(独自算出の注目度): 41.58000025132071
- License:
- Abstract: Monitoring wildlife is essential for ecology and ethology, especially in light of the increasing human impact on ecosystems. Camera traps have emerged as habitat-centric sensors enabling the study of wildlife populations at scale with minimal disturbance. However, the lack of annotated video datasets limits the development of powerful video understanding models needed to process the vast amount of fieldwork data collected. To advance research in wild animal behavior monitoring we present MammAlps, a multimodal and multi-view dataset of wildlife behavior monitoring from 9 camera-traps in the Swiss National Park. MammAlps contains over 14 hours of video with audio, 2D segmentation maps and 8.5 hours of individual tracks densely labeled for species and behavior. Based on 6135 single animal clips, we propose the first hierarchical and multimodal animal behavior recognition benchmark using audio, video and reference scene segmentation maps as inputs. Furthermore, we also propose a second ecology-oriented benchmark aiming at identifying activities, species, number of individuals and meteorological conditions from 397 multi-view and long-term ecological events, including false positive triggers. We advocate that both tasks are complementary and contribute to bridging the gap between machine learning and ecology. Code and data are available at: https://github.com/eceo-epfl/MammAlps
- Abstract(参考訳): 野生生物のモニタリングは生態学や生態学に欠かせないものであり、特に生態系に対する人間の影響が増大していることに照らして行われる。
カメラトラップは生息地中心のセンサーとして登場しており、野生生物の個体群を最小限の障害で研究することができる。
しかし、注釈付きビデオデータセットの欠如により、収集された膨大なフィールドワークデータを処理するために必要な強力なビデオ理解モデルの開発が制限される。
マムアルプス(MammAlps)は、スイス国立公園の9つのカメラトラップから得られた野生動物の行動監視のマルチモーダル・マルチビューデータセットである。
MammAlpsには14時間以上のビデオとオーディオ、2Dセグメンテーションマップ、8.5時間の個々のトラックに種や行動のラベルが付けられている。
6135個の動物クリップに基づいて,音声,ビデオ,参照シーンのセグメンテーションマップを入力として,最初の階層的・マルチモーダルな動物行動認識ベンチマークを提案する。
さらに,397個の多視点からの活動,種,個体数,気象条件の同定を目的とした第2の生態指向ベンチマークも提案した。
どちらのタスクも補完的であり、機械学習と生態学のギャップを埋めるのに寄与する、と我々は主張する。
コードとデータは、https://github.com/eceo-epfl/MammAlpsで入手できる。
関連論文リスト
- BuckTales : A multi-UAV dataset for multi-object tracking and re-identification of wild antelopes [0.6267336085190178]
BuckTalesは、野生動物の多目的追跡と再同定問題を解決するために設計された最初の大規模なUAVデータセットである。
MOTデータセットには12の高解像度(5.4K)ビデオを含む680トラックを含む120万以上のアノテーションが含まれている。
Re-IDデータセットには、同時に2つのUAVで捕獲された730人の個人が含まれている。
論文 参考訳(メタデータ) (2024-11-11T11:55:14Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - SatBird: Bird Species Distribution Modeling with Remote Sensing and
Citizen Science Data [68.2366021016172]
本稿では,市民科学データベース eBird の観測データから得られたラベルを用いた,米国内の位置情報のサテライトデータセットである SatBird について述べる。
ケニアでは低データのレシエーションを表すデータセットも提供しています。
リモートセンシングタスクのためのSOTAモデルを含む、データセットのベースラインセットをベンチマークします。
論文 参考訳(メタデータ) (2023-11-02T02:00:27Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - MammalNet: A Large-scale Video Benchmark for Mammal Recognition and
Behavior Understanding [38.3767550066302]
MammalNetは、哺乳類の分類誘導アノテーションとその共通の行動を含む大規模な動物行動データセットである。
計539時間の18Kビデオが含まれており、これは現存する最大の動物行動データセットの10倍の大きさだ。
MammalNet上では,標準動物と行動認識,合成低ショット動物と行動認識,行動検出の3つのベンチマークを作成した。
論文 参考訳(メタデータ) (2023-06-01T11:45:33Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Animal Kingdom: A Large and Diverse Dataset for Animal Behavior
Understanding [4.606145900630665]
大規模で多様なデータセットであるAnimal Kingdomを作成し、複数の注釈付きタスクを提供します。
私たちのデータセットには、関連する動物行動セグメントをローカライズする50時間のアノテーション付きビデオが含まれています。
本研究では,未確認新種動物を用いた行動認識の一般的な特徴と特定の特徴を学習する協調行動認識(CARe)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T02:05:15Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。