論文の概要: OpenApePose: a database of annotated ape photographs for pose estimation
- arxiv url: http://arxiv.org/abs/2212.00741v2
- Date: Fri, 22 Sep 2023 14:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 19:36:36.634563
- Title: OpenApePose: a database of annotated ape photographs for pose estimation
- Title(参考訳): OpenApePose:ポーズ推定のための注釈付き猿の写真データベース
- Authors: Nisarg Desai, Praneet Bala, Rebecca Richardson, Jessica Raper, Jan
Zimmermann, Benjamin Hayden
- Abstract要約: 自然主義的な文脈で6種の類人猿の写真を71,868枚添付した新しい公開データセットOpenApePoseを提示する。
我々は、猿や人間に訓練されたネットワークよりも、猿の写真で訓練された標準的なディープネット(HRNet-W48)が、確実にサンプルの猿の写真を追跡することができることを示した。
- 参考スコア(独自算出の注目度): 1.056517711677027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of their close relationship with humans, non-human apes (chimpanzees,
bonobos, gorillas, orangutans, and gibbons, including siamangs) are of great
scientific interest. The goal of understanding their complex behavior would be
greatly advanced by the ability to perform video-based pose tracking. Tracking,
however, requires high-quality annotated datasets of ape photographs. Here we
present OpenApePose, a new public dataset of 71,868 photographs, annotated with
16 body landmarks, of six ape species in naturalistic contexts. We show that a
standard deep net (HRNet-W48) trained on ape photos can reliably track
out-of-sample ape photos better than networks trained on monkeys (specifically,
the OpenMonkeyPose dataset) and on humans (COCO) can. This trained network can
track apes almost as well as the other networks can track their respective
taxa, and models trained without one of the six ape species can track the held
out species better than the monkey and human models can. Ultimately, the
results of our analyses highlight the importance of large specialized databases
for animal tracking systems and confirm the utility of our new ape database.
- Abstract(参考訳): 人間との密接な関係から、非ヒト類人猿(チンパンジー、ボノボ、ゴリラ、オランウータン、シャムアンを含むギボン)は非常に科学的に興味深い。
複雑な行動を理解するという目標は、ビデオベースのポーズ追跡を行う能力によって大きく進歩する。
しかし、追跡には高品質な猿写真の注釈付きデータセットが必要である。
ここでは,自然主義的な文脈で6種の類人猿の標本を16の目印で注釈した,71,868枚の写真からなる新しい公開データセットであるopenapeposeについて紹介する。
我々は、猿(特にOpenMonkeyPoseデータセット)や人間(COCO)で訓練されたネットワークよりも、猿の写真で訓練された標準的なディープネット(HRNet-W48)が、確実にサンプル外の猿の写真を追跡することができることを示した。
この訓練されたネットワークは猿を追跡できるだけでなく、他のネットワークがそれぞれの分類を追跡できる。
最終的に,動物追跡システムにおける大規模専門データベースの重要性を強調し,新たな猿データベースの有用性を確認した。
関連論文リスト
- HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - OpenAnimalTracks: A Dataset for Animal Track Recognition [2.3020018305241337]
動物足跡の自動分類と検出を容易にするために設計された,最初の公開ラベル付きデータセットであるOpenAnimalTracksデータセットを紹介する。
代表分類器と検出モデルを用いた自動フットプリント識別の可能性を示す。
われわれのデータセットは、動物の自動追跡技術の道を切り開き、生物多様性の保護と管理の能力を高めることを願っている。
論文 参考訳(メタデータ) (2024-06-14T00:37:17Z) - CapHuman: Capture Your Moments in Parallel Universes [60.06408546134581]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - PanAf20K: A Large Video Dataset for Wild Ape Detection and Behaviour
Recognition [15.272335338021419]
PanAf20Kデータセットは、その自然環境における偉大な類人猿の、最大かつ最も多様なオープンアクセスアノテートビデオデータセットである。
熱帯アフリカの14の畑で収集されたチンパンジーとゴリラのカメラトラップビデオ2万枚に700万枚以上のフレームが含まれている。
論文 参考訳(メタデータ) (2024-01-24T16:13:24Z) - UniHuman: A Unified Model for Editing Human Images in the Wild [49.896715833075106]
実環境における画像編集の複数の側面に対処する統一モデルUniHumanを提案する。
モデルの生成品質と一般化能力を向上させるために,人間の視覚エンコーダからのガイダンスを利用する。
ユーザスタディでは、UniHumanは平均して77%のケースでユーザに好まれる。
論文 参考訳(メタデータ) (2023-12-22T05:00:30Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - ChimpACT: A Longitudinal Dataset for Understanding Chimpanzee Behaviors [32.72634137202146]
ChimpACTは、ドイツのライプツィヒ動物園に住む20以上のチンパンジーのビデオを特集している。
ChimpACTは、合計160,500フレームの163の動画で構成されており、包括的で難しい。
論文 参考訳(メタデータ) (2023-10-25T08:11:02Z) - Meerkat Behaviour Recognition Dataset [3.53348643468069]
本稿では,多彩なアノテーション付き行動認識ビデオデータセットについて紹介する。
このデータセットにはウェリントン動物園(ニュージーランドのウェリントン)のメアカットの囲いの2箇所のビデオが含まれている。
論文 参考訳(メタデータ) (2023-06-20T06:50:50Z) - Portuguese Man-of-War Image Classification with Convolutional Neural
Networks [58.720142291102135]
ポルトガルマン・オブ・ウォー(ポルトガル語: Man-of-war、PMW)は、長い触手を持つゼラチン質の生物である。
本稿では,InstagramのソーシャルメディアからPMW画像を認識するための畳み込みニューラルネットワークの利用について報告する。
論文 参考訳(メタデータ) (2022-07-04T03:06:45Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - A Dataset and Application for Facial Recognition of Individual Gorillas
in Zoo Environments [1.914535189888288]
我々はブリストル動物園の7つの低地ゴリラの部隊に5k以上の顔境界ボックスアノテーションを用いたビデオデータセットを提出した。
動物園環境における個々のゴリラを顔で認識する作業において,標準的なディープラーニングパイプラインを実装し,評価する。
YOLOv3ベースのアプリケーションは,1フレームのみを利用する場合,92% mAPで識別を行うことができることを示す。
論文 参考訳(メタデータ) (2020-12-08T19:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。