論文の概要: Multi-View Matching (MVM): Facilitating Multi-Person 3D Pose Estimation
Learning with Action-Frozen People Video
- arxiv url: http://arxiv.org/abs/2004.05275v1
- Date: Sat, 11 Apr 2020 01:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 12:50:00.296957
- Title: Multi-View Matching (MVM): Facilitating Multi-Person 3D Pose Estimation
Learning with Action-Frozen People Video
- Title(参考訳): マルチビューマッチング(MVM):アクションFrozen People Videoを用いたマルチパーソン3次元視点推定学習の実現
- Authors: Yeji Shen, C.-C. Jay Kuo
- Abstract要約: MVM法は大規模ビデオデータセットから信頼性の高い3次元ポーズを生成する。
マルチパーソン3Dポーズ推定のための入力として,1つの画像を取るニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 38.63662549684785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To tackle the challeging problem of multi-person 3D pose estimation from a
single image, we propose a multi-view matching (MVM) method in this work. The
MVM method generates reliable 3D human poses from a large-scale video dataset,
called the Mannequin dataset, that contains action-frozen people immitating
mannequins. With a large amount of in-the-wild video data labeled by 3D
supervisions automatically generated by MVM, we are able to train a neural
network that takes a single image as the input for multi-person 3D pose
estimation. The core technology of MVM lies in effective alignment of 2D poses
obtained from multiple views of a static scene that has a strong geometric
constraint. Our objective is to maximize mutual consistency of 2D poses
estimated in multiple frames, where geometric constraints as well as appearance
similarities are taken into account simultaneously. To demonstrate the
effectiveness of 3D supervisions provided by the MVM method, we conduct
experiments on the 3DPW and the MSCOCO datasets and show that our proposed
solution offers the state-of-the-art performance.
- Abstract(参考訳): そこで本研究では,マルチパーソン3次元ポーズ推定の問題点を解決するために,マルチビューマッチング(MVM)手法を提案する。
MVM法は、大規模なビデオデータセットであるMannequinデータセットから信頼性の高い3D人間のポーズを生成する。
mvmが自動生成する3d監督によってラベル付けされた大量のインザワイルドビデオデータによって、複数の人物の3dポーズ推定の入力として単一の画像を取るニューラルネットワークを訓練することができる。
mvmのコア技術は、強い幾何学的制約を持つ静的シーンの複数のビューから得られる2dポーズの効果的なアライメントである。
本研究の目的は,複数フレームで推定される2次元ポーズの相互整合性を最大化し,幾何学的制約と外観的類似性を同時に考慮することである。
MVM法により提供される3次元監視の有効性を示すため、3DPWとMSCOCOデータセットの実験を行い、提案手法が最先端の性能を提供することを示す。
関連論文リスト
- Self-learning Canonical Space for Multi-view 3D Human Pose Estimation [57.969696744428475]
マルチビュー3次元人間のポーズ推定は、自然に単一ビューのポーズ推定よりも優れている。
これらの情報の正確な注釈を得るのは難しい。
完全自己管理型多視点アグリゲーションネットワーク(CMANet)を提案する。
CMANetは、大規模で質的な分析において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-19T04:54:59Z) - MM-Point: Multi-View Information-Enhanced Multi-Modal Self-Supervised 3D
Point Cloud Understanding [4.220064723125481]
マルチビュー2D情報は、3Dオブジェクトに対して優れた自己教師付き信号を提供することができる。
MM-Pointは、モーダル内およびモーダル間類似性目的によって駆動される。
合成データセットModelNet40で92.4%、実世界のデータセットScanObjectNNで87.8%のピーク精度を達成した。
論文 参考訳(メタデータ) (2024-02-15T15:10:17Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - Graph-Based 3D Multi-Person Pose Estimation Using Multi-View Images [79.70127290464514]
我々は,タスクを2つの段階,すなわち人物のローカライゼーションとポーズ推定に分解する。
また,効率的なメッセージパッシングのための3つのタスク固有グラフニューラルネットワークを提案する。
提案手法は,CMU Panoptic と Shelf のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-09-13T11:44:07Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild [101.70320427145388]
本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、ラベルのないマルチビューデータから3Dポーズを推定する。
提案手法を2つの大規模データセット上で評価する。
論文 参考訳(メタデータ) (2020-03-17T08:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。