論文の概要: ChimpACT: A Longitudinal Dataset for Understanding Chimpanzee Behaviors
- arxiv url: http://arxiv.org/abs/2310.16447v1
- Date: Wed, 25 Oct 2023 08:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 15:56:57.966282
- Title: ChimpACT: A Longitudinal Dataset for Understanding Chimpanzee Behaviors
- Title(参考訳): ChimpACT:チンパンジーの行動を理解するための時系列データセット
- Authors: Xiaoxuan Ma, Stephan P. Kaufhold, Jiajun Su, Wentao Zhu, Jack
Terwilliger, Andres Meza, Yixin Zhu, Federico Rossano, Yizhou Wang
- Abstract要約: ChimpACTは、ドイツのライプツィヒ動物園に住む20以上のチンパンジーのビデオを特集している。
ChimpACTは、合計160,500フレームの163の動画で構成されており、包括的で難しい。
- 参考スコア(独自算出の注目度): 32.72634137202146
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding the behavior of non-human primates is crucial for improving
animal welfare, modeling social behavior, and gaining insights into
distinctively human and phylogenetically shared behaviors. However, the lack of
datasets on non-human primate behavior hinders in-depth exploration of primate
social interactions, posing challenges to research on our closest living
relatives. To address these limitations, we present ChimpACT, a comprehensive
dataset for quantifying the longitudinal behavior and social relations of
chimpanzees within a social group. Spanning from 2015 to 2018, ChimpACT
features videos of a group of over 20 chimpanzees residing at the Leipzig Zoo,
Germany, with a particular focus on documenting the developmental trajectory of
one young male, Azibo. ChimpACT is both comprehensive and challenging,
consisting of 163 videos with a cumulative 160,500 frames, each richly
annotated with detection, identification, pose estimation, and fine-grained
spatiotemporal behavior labels. We benchmark representative methods of three
tracks on ChimpACT: (i) tracking and identification, (ii) pose estimation, and
(iii) spatiotemporal action detection of the chimpanzees. Our experiments
reveal that ChimpACT offers ample opportunities for both devising new methods
and adapting existing ones to solve fundamental computer vision tasks applied
to chimpanzee groups, such as detection, pose estimation, and behavior
analysis, ultimately deepening our comprehension of communication and sociality
in non-human primates.
- Abstract(参考訳): 非ヒト霊長類の行動を理解することは、動物福祉を改善し、社会的行動をモデル化し、人間と系統学的に共有された行動に対する洞察を得るために重要である。
しかし、人間以外の霊長類の行動に関するデータセットがないことは、霊長類の社会的相互作用の詳細な調査を妨げる。
これらの制約に対処するため、社会集団内のチンパンジーの縦断行動と社会的関係を定量化する包括的なデータセットChimpACTを提案する。
2015年から2018年にかけて、ChimpACTはドイツのライプツィヒ動物園に住む20以上のチンパンジーのグループのビデオを公開した。
ChimpACTは包括的で難易度が高く、合計160,500フレームの163本のビデオで構成されており、それぞれに検出、識別、ポーズ推定、微粒な時空間行動ラベルが付加されている。
我々はChimpACT上の3トラックの代表手法をベンチマークする。
(i)追跡と識別
(ii)ポーズ推定、及び
(iii)チンパンジーの時空間的行動検出
実験の結果,新たな手法を考案し,検出,ポーズ推定,行動分析など,チンパンジーグループに適用する基本的なコンピュータビジョン課題を解決するために既存の手法を応用し,最終的には非ヒト霊長類におけるコミュニケーションと社会性の理解を深める機会が豊富にあることが明らかとなった。
関連論文リスト
- From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - Behaviour Modelling of Social Animals via Causal Structure Discovery and
Graph Neural Networks [15.542220566525021]
本稿では,時系列の因果構造探索とグラフニューラルネットワークを用いた行動モデル構築手法を提案する。
本手法を動物園環境におけるメスカットの群落に適用し,今後の行動を予測する能力について検討する。
論文 参考訳(メタデータ) (2023-12-21T23:34:08Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - Self-supervised Social Relation Representation for Human Group Detection [18.38523753680367]
人間のグループ検出のための新しい2段階のマルチヘッドフレームワークを提案する。
第1段階では,人間行動シミュレーター・ヘッドを提案し,ソーシャル・リレーション・フィーチャの埋め込みを学習する。
第2段階では,社会関係の埋め込みに基づいて,人間集団検出のための自己注意型ネットワークを開発する。
論文 参考訳(メタデータ) (2022-03-08T04:26:07Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z) - The Multi-Agent Behavior Dataset: Mouse Dyadic Social Interactions [39.265388879471686]
行動神経科学のマルチエージェントデータセットであるCaltech Mouse Social Interactions(CalMS21)データセットを紹介します。
私たちのデータセットは、自由に行動できるマウスのビデオから記録された、社会的相互作用の軌跡データから成り立っている。
calms21データセットは、マルチエージェントビヘイビアチャレンジ2021の一部であり、私たちの次のステップは、マルチエージェントビヘイビアを研究する他のドメインからのデータセットを組み込むことです。
論文 参考訳(メタデータ) (2021-04-06T17:58:47Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。