論文の概要: MammalNet: A Large-scale Video Benchmark for Mammal Recognition and
Behavior Understanding
- arxiv url: http://arxiv.org/abs/2306.00576v1
- Date: Thu, 1 Jun 2023 11:45:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:45:45.420324
- Title: MammalNet: A Large-scale Video Benchmark for Mammal Recognition and
Behavior Understanding
- Title(参考訳): MammalNet: 乳房の認識と行動理解のための大規模ビデオベンチマーク
- Authors: Jun Chen, Ming Hu, Darren J. Coker, Michael L. Berumen, Blair
Costelloe, Sara Beery, Anna Rohrbach, Mohamed Elhoseiny
- Abstract要約: MammalNetは、哺乳類の分類誘導アノテーションとその共通の行動を含む大規模な動物行動データセットである。
計539時間の18Kビデオが含まれており、これは現存する最大の動物行動データセットの10倍の大きさだ。
MammalNet上では,標準動物と行動認識,合成低ショット動物と行動認識,行動検出の3つのベンチマークを作成した。
- 参考スコア(独自算出の注目度): 38.3767550066302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Monitoring animal behavior can facilitate conservation efforts by providing
key insights into wildlife health, population status, and ecosystem function.
Automatic recognition of animals and their behaviors is critical for
capitalizing on the large unlabeled datasets generated by modern video devices
and for accelerating monitoring efforts at scale. However, the development of
automated recognition systems is currently hindered by a lack of appropriately
labeled datasets. Existing video datasets 1) do not classify animals according
to established biological taxonomies; 2) are too small to facilitate
large-scale behavioral studies and are often limited to a single species; and
3) do not feature temporally localized annotations and therefore do not
facilitate localization of targeted behaviors within longer video sequences.
Thus, we propose MammalNet, a new large-scale animal behavior dataset with
taxonomy-guided annotations of mammals and their common behaviors. MammalNet
contains over 18K videos totaling 539 hours, which is ~10 times larger than the
largest existing animal behavior dataset. It covers 17 orders, 69 families, and
173 mammal categories for animal categorization and captures 12 high-level
animal behaviors that received focus in previous animal behavior studies. We
establish three benchmarks on MammalNet: standard animal and behavior
recognition, compositional low-shot animal and behavior recognition, and
behavior detection. Our dataset and code have been made available at:
https://mammal-net.github.io.
- Abstract(参考訳): 動物行動のモニタリングは、野生生物の健康、個体数、生態系機能に関する重要な洞察を提供することによって、保全努力を促進する。
動物とその行動の自動認識は、現代のビデオデバイスが生成する大規模未ラベルデータセットの活用と、大規模監視の高速化に不可欠である。
しかし、現在自動認識システムの開発は、適切なラベル付きデータセットの欠如によって妨げられている。
既存のビデオデータセット
1) 確立された生物学的分類に従って動物を分類しない。
2) 大規模行動研究を容易にするには小さすぎるため,単一の種に限られることが多い。
3) 時間的局所化アノテーションを特徴とせず, より長いビデオシーケンス内での標的行動の局所化を容易にする。
そこで本研究では,哺乳類の分類誘導アノテーションを用いた大規模動物行動データセットであるMammalNetを提案する。
MammalNetには合計539時間の18Kビデオが含まれており、これは既存の動物行動データセットの約10倍の大きさである。
17のオーダー、69のファミリー、173の哺乳動物カテゴリをカバーし、以前の動物行動研究に焦点をあてた12のハイレベルな動物行動を取り込んでいる。
MammalNetでは,標準動物と行動認識,構成動物と行動認識,行動検出の3つのベンチマークを作成した。
当社のデータセットとコードは、https://mammal-net.github.io.com/で利用可能です。
関連論文リスト
- From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - OmniMotionGPT: Animal Motion Generation with Limited Data [70.35662376853163]
最初のテキストアニマルモーションデータセットであるAnimalML3Dを紹介した。
我々は,動物データに基づくヒトの動き生成ベースラインのトレーニング結果よりも定量的かつ質的に,高い多様性と忠実さで動物の動きを生成することができる。
論文 参考訳(メタデータ) (2023-11-30T07:14:00Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - CVB: A Video Dataset of Cattle Visual Behaviors [13.233877352490923]
牛の行動認識のための既存のデータセットは、ほとんど小さく、明確に定義されたラベルがないか、非現実的な制御環境で収集される。
キャトル・ビジュアル・ビヘイビアス (CVB) と呼ばれる新しいデータセットを導入し、502本のビデオクリップを15秒毎に撮影し、自然の照明条件で撮影し、11種類の視覚的に知覚できる牛の行動に注釈を付ける。
論文 参考訳(メタデータ) (2023-05-26T00:44:11Z) - CNN-Based Action Recognition and Pose Estimation for Classifying Animal
Behavior from Videos: A Survey [0.0]
アクション認識(Action Recognition)は、1つ以上の被験者がトリミングされたビデオで行う活動の分類であり、多くの技術の基礎を形成する。
人間の行動認識のためのディープラーニングモデルは、過去10年間に進歩してきた。
近年,深層学習に基づく行動認識を取り入れた研究への関心が高まっている。
論文 参考訳(メタデータ) (2023-01-15T20:54:44Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - Animal Kingdom: A Large and Diverse Dataset for Animal Behavior
Understanding [4.606145900630665]
大規模で多様なデータセットであるAnimal Kingdomを作成し、複数の注釈付きタスクを提供します。
私たちのデータセットには、関連する動物行動セグメントをローカライズする50時間のアノテーション付きビデオが含まれています。
本研究では,未確認新種動物を用いた行動認識の一般的な特徴と特定の特徴を学習する協調行動認識(CARe)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T02:05:15Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。