論文の概要: CondiMen: Conditional Multi-Person Mesh Recovery
- arxiv url: http://arxiv.org/abs/2412.13058v1
- Date: Tue, 17 Dec 2024 16:22:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:58:24.398455
- Title: CondiMen: Conditional Multi-Person Mesh Recovery
- Title(参考訳): CondiMen: 条件付きマルチパーソンメッシュリカバリ
- Authors: Brégier Romain, Baradel Fabien, Lucas Thomas, Galaaoui Salma, Armando Matthieu, Weinzaepfel Philippe, Rogez Grégory,
- Abstract要約: 本研究ではコンディメン(CondiMen)を提案する。コンディメン(CondiMen)は、カメラへのポーズ、体形、内在性、距離に関する共同パラメトリック分布を出力する手法である。
私たちのモデルは、最先端技術と同等以上のパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Multi-person human mesh recovery (HMR) consists in detecting all individuals in a given input image, and predicting the body shape, pose, and 3D location for each detected person. The dominant approaches to this task rely on neural networks trained to output a single prediction for each detected individual. In contrast, we propose CondiMen, a method that outputs a joint parametric distribution over likely poses, body shapes, intrinsics and distances to the camera, using a Bayesian network. This approach offers several advantages. First, a probability distribution can handle some inherent ambiguities of this task -- such as the uncertainty between a person's size and their distance to the camera, or simply the loss of information when projecting 3D data onto the 2D image plane. Second, the output distribution can be combined with additional information to produce better predictions, by using e.g. known camera or body shape parameters, or by exploiting multi-view observations. Third, one can efficiently extract the most likely predictions from the output distribution, making our proposed approach suitable for real-time applications. Empirically we find that our model i) achieves performance on par with or better than the state-of-the-art, ii) captures uncertainties and correlations inherent in pose estimation and iii) can exploit additional information at test time, such as multi-view consistency or body shape priors. CondiMen spices up the modeling of ambiguity, using just the right ingredients on hand.
- Abstract(参考訳): マルチパーソン・ヒューマンメッシュ・リカバリ(HMR)は、与えられた入力画像中のすべての個人を検出し、検出された人ごとの体型、ポーズ、および3D位置を予測する。
このタスクの主流のアプローチは、検出された各個人に対して単一の予測を出力するように訓練されたニューラルネットワークに依存している。
対照的にCondiMenは、ベイジアンネットワークを用いて、潜在的なポーズ、体形、内在性、距離に対する関節パラメトリック分布をカメラに出力する手法である。
このアプローチにはいくつかの利点がある。
まず、確率分布は、人のサイズとカメラの距離の不確実性、あるいは単に3Dデータを2D画像平面に投影する際の情報の喪失など、このタスクの固有の曖昧性を扱うことができる。
第二に、出力分布を付加情報と組み合わせて、例えば、既知のカメラやボディ形状パラメータを使ったり、多視点観察を利用して予測を改善することができる。
第3に、出力分布から最も可能性の高い予測を効率的に抽出し、提案手法をリアルタイムアプリケーションに適合させる。
経験的に私たちのモデルは
i) 最先端技術と同等以上の性能を達成すること。
二 ポーズ推定に固有の不確実性及び相関を捉えること。
三 複数視点の整合性又は体型先行等のテスト時に追加情報を利用することができる。
CondiMenは、適切な材料だけを使ってあいまいさをモデル化する。
関連論文リスト
- Utilizing Uncertainty in 2D Pose Detectors for Probabilistic 3D Human Mesh Recovery [23.473909489868454]
確率論的アプローチは 有望な3次元メッシュ上の分布を学習する
この目的関数だけでは、全分布を捉えるのに十分ではないことを示す。
トレーニング中,被験者のセグメンテーションマスクを利用することで,不正なサンプルの数を著しく削減できることを実証した。
論文 参考訳(メタデータ) (2024-11-25T11:13:12Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - HuManiFlow: Ancestor-Conditioned Normalising Flows on SO(3) Manifolds
for Human Pose and Shape Distribution Estimation [27.14060158187953]
近年のアプローチでは、画像上に条件付き3次元ポーズと形状パラメータの確率分布が予測されている。
これらの手法が3つの重要な特性のトレードオフを示すことを示す。
我々の手法であるHuManiFlowは、同時に正確で一貫性があり多様な分布を予測する。
論文 参考訳(メタデータ) (2023-05-11T16:49:19Z) - Diffusion-Based 3D Human Pose Estimation with Multi-Hypothesis
Aggregation [64.874000550443]
ジョイントワイズ・リジェクション・ベース・マルチハイブリッド・アグリゲーション(JPMA)を用いた拡散型3次元ポス推定法を提案する。
提案したJPMAは,D3DPが生成する複数の仮説を1つの3次元ポーズにまとめて実用的に利用する。
提案手法は, 最先端の決定論的アプローチと確率論的アプローチをそれぞれ1.5%, 8.9%上回った。
論文 参考訳(メタデータ) (2023-03-21T04:00:47Z) - DiffPose: Multi-hypothesis Human Pose Estimation using Diffusion models [5.908471365011943]
与えられた入力画像に対して複数の仮説を予測する条件拡散モデルであるemphDiffPoseを提案する。
DiffPoseは, 簡単なポーズの多面的ポーズを推定し, 極めてあいまいなポーズに対して大きなマージンで優れることを示す。
論文 参考訳(メタデータ) (2022-11-29T18:55:13Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - Hierarchical Kinematic Probability Distributions for 3D Human Shape and
Pose Estimation from Images in the Wild [25.647676661390282]
本稿では,RGB画像からの3次元人体形状とポーズ推定の問題に対処する。
深層ニューラルネットワークを用いて、相対的な3次元関節回転行列上の階層行列-フィッシャー分布を推定する。
本手法は,SSP-3Dおよび3DPWデータセット上で,3次元形状の計測値を用いて,最先端技術と競合することを示す。
論文 参考訳(メタデータ) (2021-10-03T11:59:37Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Probabilistic 3D Human Shape and Pose Estimation from Multiple
Unconstrained Images in the Wild [25.647676661390282]
人間の被写体の複数の画像のグループから、形状とポーズ推定という新しいタスクを提案します。
提案手法は,SMPL体形状上の分布を予測し,入力画像にパラメータを付与する。
複数画像入力グループに存在する付加体形状情報により, 人体形状推定の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-03-19T18:32:16Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。