論文の概要: hSMAL: Detailed Horse Shape and Pose Reconstruction for Motion Pattern
Recognition
- arxiv url: http://arxiv.org/abs/2106.10102v1
- Date: Fri, 18 Jun 2021 12:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:04:53.178856
- Title: hSMAL: Detailed Horse Shape and Pose Reconstruction for Motion Pattern
Recognition
- Title(参考訳): hSMAL:運動パターン認識のための詳細な馬の形と姿勢再構成
- Authors: Ci Li, Nima Ghorbani, Sofia Broom\'e, Maheen Rashid, Michael J. Black,
Elin Hernlund, Hedvig Kjellstr\"om, Silvia Zuffi
- Abstract要約: 馬用の新しいSMALモデルを,37ドルの玩具から学習した新しいテンプレート,骨格,形状空間に基づいて定義する。
本稿では,映像からの透視検出問題にhSMALモデルを適用し,そのモデルに画像に適合させて3次元ポーズを復元し,ポーズデータにST-GCNネットワークを訓練する。
- 参考スコア(独自算出の注目度): 35.55478917840216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present our preliminary work on model-based behavioral
analysis of horse motion. Our approach is based on the SMAL model, a 3D
articulated statistical model of animal shape. We define a novel SMAL model for
horses based on a new template, skeleton and shape space learned from $37$
horse toys. We test the accuracy of our hSMAL model in reconstructing a horse
from 3D mocap data and images. We apply the hSMAL model to the problem of
lameness detection from video, where we fit the model to images to recover 3D
pose and train an ST-GCN network on pose data. A comparison with the same
network trained on mocap points illustrates the benefit of our approach.
- Abstract(参考訳): 本稿では,馬の動きのモデルに基づく行動解析に関する予備研究について述べる。
このアプローチは,動物形状の3次元調音統計モデルであるsmalモデルに基づいている。
337ドルの馬のおもちゃから学んだ新しいテンプレート、骨格、形状空間に基づいて、馬のための新しいsmalモデルを定義した。
3d mocapデータと画像から馬の復元におけるhsmalモデルの精度を検証した。
本稿では,映像からの透視検出問題にhSMALモデルを適用し,そのモデルに画像に適合させて3次元ポーズを復元し,ポーズデータにST-GCNネットワークを訓練する。
mocapポイントでトレーニングされた同じネットワークとの比較は、私たちのアプローチのメリットを示しています。
関連論文リスト
- Animal Avatars: Reconstructing Animatable 3D Animals from Casual Videos [26.65191922949358]
モノクロビデオからアニマタブルな犬用アバターを構築する方法を提案する。
動物は様々な(予測不可能な)非剛体運動を示し、外観の詳細を持っているため、これは難しい。
我々は,動物のポーズの変化と外観を共同で解決する4Dソリューションを用いて,映像フレームをリンクする手法を開発した。
論文 参考訳(メタデータ) (2024-03-25T18:41:43Z) - Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - SAOR: Single-View Articulated Object Reconstruction [17.2716639564414]
野生で撮影された単一画像から3次元形状, テクスチャ, 視点を推定するための新しいアプローチであるSAORを紹介する。
事前に定義されたカテゴリ固有の3Dテンプレートや調整された3Dスケルトンに依存する従来のアプローチとは異なり、SAORは3Dオブジェクトの形状を事前に必要とせずに、スケルトンフリーのパーツベースモデルで単一ビューイメージコレクションから形状を明瞭化することを学ぶ。
論文 参考訳(メタデータ) (2023-03-23T17:59:35Z) - MagicPony: Learning Articulated 3D Animals in the Wild [81.63322697335228]
そこで本研究では,オブジェクトカテゴリのワンビュー画像から,この予測器を純粋に学習するMagicPonyを提案する。
その中核は、明瞭な形状と外観を暗黙的に表現し、神経磁場とメッシュの強さを組み合わせたものである。
論文 参考訳(メタデータ) (2022-11-22T18:59:31Z) - Coarse-to-fine Animal Pose and Shape Estimation [67.39635503744395]
単一画像から3次元動物メッシュを再構成する粗大なアプローチを提案する。
粗い推定段階はまずSMALモデルのポーズ、形状、翻訳パラメータを推定する。
次に、推定メッシュをグラフ畳み込みネットワーク(GCN)によって開始点として使用し、精製段階における頂点毎の変形を予測する。
論文 参考訳(メタデータ) (2021-11-16T01:27:20Z) - Leveraging MoCap Data for Human Mesh Recovery [27.76352018682937]
本研究では,3次元モーションキャプチャ(MoCap)データからのポーズが,画像ベースおよびビデオベースのヒューマンメッシュ回復手法の改善に有効かどうかを検討する。
また,MoCapデータからの合成レンダリングによる微調整画像ベースモデルの性能向上が期待できる。
ポーズパラメータを直接回帰するトランスフォーマーモジュールであるPoseBERTを導入し、マスク付きモデリングでトレーニングする。
論文 参考訳(メタデータ) (2021-10-18T12:43:00Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。