論文の概要: OpenApePose: a database of annotated ape photographs for pose estimation
- arxiv url: http://arxiv.org/abs/2212.00741v1
- Date: Wed, 30 Nov 2022 16:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:16:18.518783
- Title: OpenApePose: a database of annotated ape photographs for pose estimation
- Title(参考訳): OpenApePose:ポーズ推定のための注釈付き猿の写真データベース
- Authors: Nisarg Desai, Praneet Bala, Rebecca Richardson, Jessica Raper, Jan
Zimmermann, Benjamin Hayden
- Abstract要約: 自然主義的な文脈で6種の類人猿の写真を71,868枚添付した新しい公開データセットOpenApePoseを提示する。
我々は、猿や人間に訓練されたネットワークよりも、猿の写真で訓練された標準的なディープネット(HRNet-W48)が、確実にサンプルの猿の写真を追跡することができることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of their close relationship with humans, non-human apes (chimpanzees,
bonobos, gorillas, orangutans, and gibbons, including siamangs) are of great
scientific interest. The goal of understanding their complex behavior would be
greatly advanced by the ability to perform video-based pose tracking. Tracking,
however, requires high-quality annotated datasets of ape photographs. Here we
present OpenApePose, a new public dataset of 71,868 photographs, annotated with
16 body landmarks, of six ape species in naturalistic contexts. We show that a
standard deep net (HRNet-W48) trained on ape photos can reliably track
out-of-sample ape photos better than networks trained on monkeys (specifically,
the OpenMonkeyPose dataset) and on humans (COCO) can. This trained network can
track apes almost as well as the other networks can track their respective
taxa, and models trained without one of the six ape species can track the held
out species better than the monkey and human models can. Ultimately, the
results of our analyses highlight the importance of large specialized databases
for animal tracking systems and confirm the utility of our new ape database.
- Abstract(参考訳): 人間との密接な関係から、非ヒト類人猿(チンパンジー、ボノボ、ゴリラ、オランウータン、シャムアンを含むギボン)は非常に科学的に興味深い。
複雑な行動を理解するという目標は、ビデオベースのポーズ追跡を行う能力によって大きく進歩する。
しかし、追跡には高品質な猿写真の注釈付きデータセットが必要である。
ここでは,自然主義的な文脈で6種の類人猿の標本を16の目印で注釈した,71,868枚の写真からなる新しい公開データセットであるopenapeposeについて紹介する。
我々は、猿(特にOpenMonkeyPoseデータセット)や人間(COCO)で訓練されたネットワークよりも、猿の写真で訓練された標準的なディープネット(HRNet-W48)が、確実にサンプル外の猿の写真を追跡することができることを示した。
この訓練されたネットワークは猿を追跡できるだけでなく、他のネットワークがそれぞれの分類を追跡できる。
最終的に,動物追跡システムにおける大規模専門データベースの重要性を強調し,新たな猿データベースの有用性を確認した。
関連論文リスト
- CapHuman: Capture Your Moments in Parallel Universes [64.43951107473325]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - PanAf20K: A Large Video Dataset for Wild Ape Detection and Behaviour
Recognition [15.272335338021419]
PanAf20Kデータセットは、その自然環境における偉大な類人猿の、最大かつ最も多様なオープンアクセスアノテートビデオデータセットである。
熱帯アフリカの14の畑で収集されたチンパンジーとゴリラのカメラトラップビデオ2万枚に700万枚以上のフレームが含まれている。
論文 参考訳(メタデータ) (2024-01-24T16:13:24Z) - Monkey: Image Resolution and Text Label Are Important Things for Large
Multi-modal Models [57.59547909784445]
大規模マルチモーダルモデル(LMM)は視覚言語タスクにおいて有望であるが、高解像度入力と詳細なシーン理解に苦慮している。
LMM機能を強化するためにMonkeyを導入します。
モンキーは入力画像を均一なパッチに分割して処理し、それぞれのサイズ(例:448x448)をよく訓練されたビジョンエンコーダのトレーニングに使用する。
解像度は1344x896ピクセルまでで、複雑な視覚情報を詳細にキャプチャできる。
論文 参考訳(メタデータ) (2023-11-11T16:37:41Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - ChimpACT: A Longitudinal Dataset for Understanding Chimpanzee Behaviors [32.72634137202146]
ChimpACTは、ドイツのライプツィヒ動物園に住む20以上のチンパンジーのビデオを特集している。
ChimpACTは、合計160,500フレームの163の動画で構成されており、包括的で難しい。
論文 参考訳(メタデータ) (2023-10-25T08:11:02Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - A Dataset and Application for Facial Recognition of Individual Gorillas
in Zoo Environments [1.914535189888288]
我々はブリストル動物園の7つの低地ゴリラの部隊に5k以上の顔境界ボックスアノテーションを用いたビデオデータセットを提出した。
動物園環境における個々のゴリラを顔で認識する作業において,標準的なディープラーニングパイプラインを実装し,評価する。
YOLOv3ベースのアプリケーションは,1フレームのみを利用する場合,92% mAPで識別を行うことができることを示す。
論文 参考訳(メタデータ) (2020-12-08T19:23:22Z) - Whole-Body Human Pose Estimation in the Wild [88.09875133989155]
COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
論文 参考訳(メタデータ) (2020-07-23T08:35:26Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。