論文の概要: ZooBuilder: 2D and 3D Pose Estimation for Quadrupeds Using Synthetic
Data
- arxiv url: http://arxiv.org/abs/2009.05389v1
- Date: Tue, 1 Sep 2020 07:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:37:11.002265
- Title: ZooBuilder: 2D and 3D Pose Estimation for Quadrupeds Using Synthetic
Data
- Title(参考訳): ZooBuilder:合成データを用いた四足歩行者の2次元および3次元姿勢推定
- Authors: Abassin Sourou Fangbemi, Yi Fei Lu, Mao Yuan Xu, Xiao Wu Luo, Alexis
Rolland, Chedy Raissi
- Abstract要約: 2Dと3Dのポーズ推定モデルを合成データでトレーニングし、ZooBuilderと呼ばれるエンドツーエンドのパイプラインを配置します。
パイプラインは野生動物のビデオとして入力され、動物の骨格の各関節の対応する2Dと3D座標を生成する。
- 参考スコア(独自算出の注目度): 2.3661942553209236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a novel strategy for generating synthetic training data
for 2D and 3D pose estimation of animals using keyframe animations. With the
objective to automate the process of creating animations for wildlife, we train
several 2D and 3D pose estimation models with synthetic data, and put in place
an end-to-end pipeline called ZooBuilder. The pipeline takes as input a video
of an animal in the wild, and generates the corresponding 2D and 3D coordinates
for each joint of the animal's skeleton. With this approach, we produce motion
capture data that can be used to create animations for wildlife.
- Abstract(参考訳): 本研究は,キーフレームアニメーションを用いた動物の2次元および3次元ポーズ推定のための合成トレーニングデータを生成する新しい手法を提案する。
野生動物のためのアニメーション作成プロセスの自動化を目的として,複数の2次元および3次元ポーズ推定モデルを合成データでトレーニングし,zoobuilderと呼ばれるエンドツーエンドパイプラインを設置した。
パイプラインは野生の動物の映像を入力し、動物の骨格の各関節に対して対応する2dおよび3d座標を生成する。
このアプローチでは,野生生物のアニメーション作成に使用できるモーションキャプチャデータを生成する。
関連論文リスト
- Virtual Pets: Animatable Animal Generation in 3D Scenes [84.0990909455833]
仮想ペット(Virtual Pet)は、3次元環境下での標的動物種に対する現実的で多様な動きをモデル化するための新しいパイプラインである。
我々はモノクロインターネットビデオを活用し、背景と背景の静的なNeRF表現に対して変形可能なNeRF表現を抽出する。
我々は,種レベルの共有テンプレート学習とビデオ毎の微調整を含む再構築戦略を開発する。
論文 参考訳(メタデータ) (2023-12-21T18:59:30Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z) - Markerless Body Motion Capturing for 3D Character Animation based on
Multi-view Cameras [13.91432217561254]
本稿では,マーカーレス人体モーションキャプチャによる3次元キャラクタアニメーション生成のための新しいアプリケーションシステムを提案する。
本研究の目的は,通常のカメラで捉えた多視点画像を用いて3次元キャラクタのための3次元スケルトンとアニメーションを作成することである。
実験結果から,本システムは人間の行動を効果的かつ効率的に捉え,リアルタイムに3Dアニメキャラクターをアニメーション化することができることがわかった。
論文 参考訳(メタデータ) (2022-12-12T09:26:21Z) - AnimeRun: 2D Animation Visual Correspondence from Open Source 3D Movies [98.65469430034246]
既存の2次元漫画のデータセットは、単純なフレーム構成と単調な動きに悩まされている。
我々は,オープンソースの3D映画を2Dスタイルのフルシーンに変換することによって,新しい2Dアニメーション視覚対応データセットAnimeRunを提案する。
分析の結果,提案したデータセットは画像合成において実際のアニメに似るだけでなく,既存のデータセットと比較してよりリッチで複雑な動きパターンを持つことがわかった。
論文 参考訳(メタデータ) (2022-11-10T17:26:21Z) - Common Pets in 3D: Dynamic New-View Synthesis of Real-Life Deformable
Categories [80.30216777363057]
コモンペットを3Dで紹介する(CoP3D)。
テスト時には、目に見えないオブジェクトの少数のビデオフレームが与えられたとき、Tracker-NeRFはその3Dポイントの軌跡を予測し、新しいビューを生成する。
CoP3Dの結果は、既存のベースラインよりも、厳密でない新規ビュー合成性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-07T22:42:42Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances [7.7824496657259665]
本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
論文 参考訳(メタデータ) (2020-09-02T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。