論文の概要: RGBD-Dog: Predicting Canine Pose from RGBD Sensors
- arxiv url: http://arxiv.org/abs/2004.07788v1
- Date: Thu, 16 Apr 2020 17:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:55:43.204371
- Title: RGBD-Dog: Predicting Canine Pose from RGBD Sensors
- Title(参考訳): RGBD-Dog:RGBDセンサーからイヌのポスを予測
- Authors: Sinead Kearney, Wenbin Li, Martin Parsons, Kwang In Kim, Darren Cosker
- Abstract要約: RGBD画像から3次元犬のポーズ推定の問題に焦点をあてる。
このデータから合成RGBD画像のデータセットを生成する。
積み重ねられた砂時計ネットワークは、3D関節の場所を予測するために訓練される。
- 参考スコア(独自算出の注目度): 25.747221533627464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic extraction of animal \reb{3D} pose from images without markers
is of interest in a range of scientific fields. Most work to date predicts
animal pose from RGB images, based on 2D labelling of joint positions. However,
due to the difficult nature of obtaining training data, no ground truth dataset
of 3D animal motion is available to quantitatively evaluate these approaches.
In addition, a lack of 3D animal pose data also makes it difficult to train 3D
pose-prediction methods in a similar manner to the popular field of body-pose
prediction. In our work, we focus on the problem of 3D canine pose estimation
from RGBD images, recording a diverse range of dog breeds with several
Microsoft Kinect v2s, simultaneously obtaining the 3D ground truth skeleton via
a motion capture system. We generate a dataset of synthetic RGBD images from
this data. A stacked hourglass network is trained to predict 3D joint
locations, which is then constrained using prior models of shape and pose. We
evaluate our model on both synthetic and real RGBD images and compare our
results to previously published work fitting canine models to images. Finally,
despite our training set consisting only of dog data, visual inspection implies
that our network can produce good predictions for images of other quadrupeds --
e.g. horses or cats -- when their pose is similar to that contained in our
training set.
- Abstract(参考訳): マーカーのない画像から動物 \reb{3D} の自動抽出は、様々な科学分野に関心がある。
現在までのほとんどの研究は、関節位置の2Dラベル付けに基づいて、RGB画像から動物のポーズを予測する。
しかし, トレーニングデータを得るのが難しいため, これらの手法を定量的に評価するには, 3次元動物運動の真実データセットは使用できない。
さらに,3次元動物のポーズデータが欠如していることから,身長予測の一般的な分野と同様の3次元ポーズ予測法を訓練することが困難になる。
本研究は,RGBD画像から3次元犬のポーズ推定の問題に着目し,複数のMicrosoft Kinect v2で様々な種類の犬種を記録し,同時にモーションキャプチャシステムを用いて3次元地上真実骨格を得る。
このデータから合成rgbd画像のデータセットを生成する。
積み重ねられた砂時計ネットワークは、3dジョイントの位置を予測するように訓練され、以前の形状とポーズのモデルを使って制約される。
合成RGBD画像と実RGBD画像の両方でモデルを評価し,犬歯モデルと画像との適合性について検討した。
最後に、私たちのトレーニングセットは犬データのみで構成されているが、視覚検査は、トレーニングセットに含まれるものに似たポーズの場合、我々のネットワークが他の四足動物(例えば馬や猫)の画像に対して良い予測をすることができることを意味している。
関連論文リスト
- ZebraPose: Zebra Detection and Pose Estimation using only Synthetic Data [0.2302001830524133]
3次元シミュレータで生成された合成データを用いて、ゼブラの検知と2次元ポーズ推定の両方に使用できる最初の合成データセットを得る。
複数の実世界および合成データセット上で検出と2次元ポーズ推定モデルを広範囲にトレーニングし、ベンチマークする。
これらの実験は、スクラッチから訓練されたモデルと合成データのみで、ゼブラの実際の画像に一貫して一般化できることを示す。
論文 参考訳(メタデータ) (2024-08-20T13:28:37Z) - MPL: Lifting 3D Human Pose from Multi-view 2D Poses [75.26416079541723]
本稿では,大規模かつリッチなトレーニングデータセットが存在する2次元ポーズ推定と,トランスフォーマーネットワークを用いた2次元から3次元ポーズリフトを提案する。
実験の結果,MPJPEの誤差は2次元ポーズを三角測量した3次元ポーズと比較して最大45%減少することがわかった。
論文 参考訳(メタデータ) (2024-08-20T12:55:14Z) - Benchmarking Monocular 3D Dog Pose Estimation Using In-The-Wild Motion Capture Data [17.042955091063444]
単眼画像からの3次元犬のポーズ推定に焦点をあてた新しいベンチマーク分析を提案する。
マルチモーダルなデータセット3DDogs-Labは屋内で撮影され、様々な犬種が通路で群がっている。
3DDogs-Wildは、光学マーカーをインペイントし、被験者を多様な環境に配置するデータセットの帰化バージョンです。
また, 3DDogs-Wild を用いたモデルトレーニングにより, フィールド内データの評価において, 性能が向上することを示した。
論文 参考訳(メタデータ) (2024-06-20T15:33:39Z) - LASSIE: Learning Articulated Shapes from Sparse Image Ensemble via 3D
Part Discovery [72.3681707384754]
そこで,本研究では,特定の動物種について,数枚の画像のみを用いて,動物の3次元ポーズと形状を推定する現実的な問題設定を提案する。
我々は2Dや3Dの地平線アノテーションを前提としないし、多視点や時間的情報も利用しない。
そこで本研究では,3次元部品を自己監督的に発見する新しい最適化フレームワークLASSIEを提案する。
論文 参考訳(メタデータ) (2022-07-07T17:00:07Z) - AdaptPose: Cross-Dataset Adaptation for 3D Human Pose Estimation by
Learnable Motion Generation [24.009674750548303]
トレーニング済みの3Dポーズ推定器を新しいデータセットでテストすると、大きなパフォーマンス低下が発生する。
本稿では、ソースデータセットから合成された3次元人間の動きを生成するエンドツーエンドフレームワークであるAdaptPoseを提案する。
提案手法は, 部分的な3Dアノテーションを用いた半教師あり学習法を16%, クロスデータセット評価において14%, 従来の半教師あり学習法よりも16%優れていた。
論文 参考訳(メタデータ) (2021-12-22T00:27:52Z) - CAMPARI: Camera-Aware Decomposed Generative Neural Radiance Fields [67.76151996543588]
画像だけでなく,カメラデータ分布を忠実に復元する3次元およびカメラ認識生成モデルについて検討した。
テスト時に、私たちのモデルは、カメラを明示的に制御し、シーンの形状と外観で画像を生成します。
論文 参考訳(メタデータ) (2021-03-31T17:59:24Z) - Real-time RGBD-based Extended Body Pose Estimation [57.61868412206493]
3DヒトポーズのリアルタイムRGBDに基づく推定システムを提案する。
パラメトリック3次元変形可能なヒューマンメッシュモデル(SMPL-X)を表現として使用する。
身体のポーズと表情パラメータの推定子を訓練する。
論文 参考訳(メタデータ) (2021-03-05T13:37:50Z) - Who Left the Dogs Out? 3D Animal Reconstruction with Expectation
Maximization in the Loop [25.40930904714051]
モノクラーインターネット画像から犬の3Dポーズと形状を復元する,エンドツーエンドの自動手法を提案する。
パラメータ推定の正則化を支援するために,従来の作業よりも形状よりもよりリッチな事前学習を行う。
我々は、Stanford Dogデータセット、20,580犬の画像の'in the wild'データセットで結果を実証した。
論文 参考訳(メタデータ) (2020-07-21T21:52:56Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。