論文の概要: AlphaChimp: Tracking and Behavior Recognition of Chimpanzees
- arxiv url: http://arxiv.org/abs/2410.17136v2
- Date: Sun, 10 Nov 2024 13:45:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 17:14:21.383956
- Title: AlphaChimp: Tracking and Behavior Recognition of Chimpanzees
- Title(参考訳): AlphaChimp:チンパンジーの追跡と行動認識
- Authors: Xiaoxuan Ma, Yutang Lin, Yuan Xu, Stephan P. Kaufhold, Jack Terwilliger, Andres Meza, Yixin Zhu, Federico Rossano, Yizhou Wang,
- Abstract要約: 我々は,チンパンジーの位置を同時に検出し,動画から行動カテゴリーを推定するエンドツーエンドアプローチを開発した。
AlphaChimpは、最先端の手法と比較して、トラッキング精度が10%高く、動作認識が20%向上している。
我々のアプローチは、コンピュータビジョンと霊長類学のギャップを埋め、技術的能力を高め、霊長類コミュニケーションと社会性の理解を深める。
- 参考スコア(独自算出の注目度): 29.14013458574676
- License:
- Abstract: Understanding non-human primate behavior is crucial for improving animal welfare, modeling social behavior, and gaining insights into both distinctly human and shared behaviors. Despite recent advances in computer vision, automated analysis of primate behavior remains challenging due to the complexity of their social interactions and the lack of specialized algorithms. Existing methods often struggle with the nuanced behaviors and frequent occlusions characteristic of primate social dynamics. This study aims to develop an effective method for automated detection, tracking, and recognition of chimpanzee behaviors in video footage. Here we show that our proposed method, AlphaChimp, an end-to-end approach that simultaneously detects chimpanzee positions and estimates behavior categories from videos, significantly outperforms existing methods in behavior recognition. AlphaChimp achieves approximately 10% higher tracking accuracy and a 20% improvement in behavior recognition compared to state-of-the-art methods, particularly excelling in the recognition of social behaviors. This superior performance stems from AlphaChimp's innovative architecture, which integrates temporal feature fusion with a Transformer-based self-attention mechanism, enabling more effective capture and interpretation of complex social interactions among chimpanzees. Our approach bridges the gap between computer vision and primatology, enhancing technical capabilities and deepening our understanding of primate communication and sociality. We release our code and models and hope this will facilitate future research in animal social dynamics. This work contributes to ethology, cognitive science, and artificial intelligence, offering new perspectives on social intelligence.
- Abstract(参考訳): 非ヒト霊長類の行動を理解することは、動物福祉の改善、社会的行動のモデル化、そして、明らかに人間と共有行動の両方に対する洞察を得るために重要である。
近年のコンピュータビジョンの進歩にもかかわらず、社会的相互作用の複雑さと特殊アルゴリズムの欠如により、霊長類の行動の自動解析は依然として困難である。
既存の方法は、しばしばニュアンス的な行動と、霊長類の社会力学に特徴的な頻繁な排他的行動に苦しむ。
本研究の目的は,映像中のチンパンジーの行動を自動的に検出,追跡,認識するための効果的な手法を開発することである。
本稿では,ビデオからチンパンジーの位置を同時に検出し,行動カテゴリーを推定する手法であるAlphaChimpについて述べる。
AlphaChimpは、最先端の手法、特に社会的行動の認識に優れた手法に比べて、およそ10%高いトラッキング精度と20%の行動認識の改善を実現している。
この優れた性能は、AlphaChimpの革新的なアーキテクチャから来ており、このアーキテクチャは、時間的特徴融合とトランスフォーマーベースの自己認識機構を統合し、チンパンジー間の複雑な社会的相互作用のより効果的なキャプチャと解釈を可能にしている。
我々のアプローチは、コンピュータビジョンと霊長類学のギャップを埋め、技術的能力を高め、霊長類コミュニケーションと社会性の理解を深める。
われわれはコードとモデルを公開し、動物の社会動態の研究を後押しすることを期待している。
この研究は、民族学、認知科学、人工知能に寄与し、社会知性に関する新たな視点を提供する。
関連論文リスト
- Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Social Motion Prediction with Cognitive Hierarchies [19.71780279070757]
我々は新しいベンチマーク、新しい定式化、認知に触発されたフレームワークを紹介する。
We present Wusi, a 3D multi-person motion data under the context of team sports。
戦略的社会的相互作用を予測するための認知階層構造を構築した。
論文 参考訳(メタデータ) (2023-11-08T14:51:17Z) - ChimpACT: A Longitudinal Dataset for Understanding Chimpanzee Behaviors [32.72634137202146]
ChimpACTは、ドイツのライプツィヒ動物園に住む20以上のチンパンジーのビデオを特集している。
ChimpACTは、合計160,500フレームの163の動画で構成されており、包括的で難しい。
論文 参考訳(メタデータ) (2023-10-25T08:11:02Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - CNN-Based Action Recognition and Pose Estimation for Classifying Animal
Behavior from Videos: A Survey [0.0]
アクション認識(Action Recognition)は、1つ以上の被験者がトリミングされたビデオで行う活動の分類であり、多くの技術の基礎を形成する。
人間の行動認識のためのディープラーニングモデルは、過去10年間に進歩してきた。
近年,深層学習に基づく行動認識を取り入れた研究への関心が高まっている。
論文 参考訳(メタデータ) (2023-01-15T20:54:44Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Hierarchical principles of embodied reinforcement learning: A review [11.613306236691427]
すべての重要な認知メカニズムが独立した計算アーキテクチャで独立に実装されていることを示す。
我々は,より洗練された認知的インスパイアされた階層的手法の開発を導くことを期待する。
論文 参考訳(メタデータ) (2020-12-18T10:19:38Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。