論文の概要: Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild
- arxiv url: http://arxiv.org/abs/2003.07581v1
- Date: Tue, 17 Mar 2020 08:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:45:39.869773
- Title: Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild
- Title(参考訳): 野生における多視点画像を用いた3次元人文学習
- Authors: Umar Iqbal and Pavlo Molchanov and Jan Kautz
- Abstract要約: 本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、ラベルのないマルチビューデータから3Dポーズを推定する。
提案手法を2つの大規模データセット上で評価する。
- 参考スコア(独自算出の注目度): 101.70320427145388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One major challenge for monocular 3D human pose estimation in-the-wild is the
acquisition of training data that contains unconstrained images annotated with
accurate 3D poses. In this paper, we address this challenge by proposing a
weakly-supervised approach that does not require 3D annotations and learns to
estimate 3D poses from unlabeled multi-view data, which can be acquired easily
in in-the-wild environments. We propose a novel end-to-end learning framework
that enables weakly-supervised training using multi-view consistency. Since
multi-view consistency is prone to degenerated solutions, we adopt a 2.5D pose
representation and propose a novel objective function that can only be
minimized when the predictions of the trained model are consistent and
plausible across all camera views. We evaluate our proposed approach on two
large scale datasets (Human3.6M and MPII-INF-3DHP) where it achieves
state-of-the-art performance among semi-/weakly-supervised methods.
- Abstract(参考訳): 1つの大きな課題は、正確な3Dポーズを付加した制約のない画像を含むトレーニングデータの取得である。
本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、未ラベルのマルチビューデータから3Dポーズを推定することを学ぶ。
マルチビュー整合性を用いた弱教師あり学習を可能にする新しいエンドツーエンド学習フレームワークを提案する。
マルチビューの一貫性はデジェネレーションソリューションになりやすいため、2.5次元ポーズ表現を採用し、トレーニングされたモデルの予測が一貫性があり、すべてのカメラビューで実現可能な場合にのみ最小化できる、新しい目的関数を提案する。
提案手法は2つの大規模データセット(Human3.6MとMPII-INF-3DHP)において,半/弱教師付き手法の最先端性能を実現する。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Weakly Supervised 3D Multi-person Pose Estimation for Large-scale Scenes
based on Monocular Camera and Single LiDAR [41.39277657279448]
大規模シーンにおける3次元多人数ポーズ推定のためのモノクロカメラとLiDARによる単一手法を提案する。
具体的には,画像や点クラウドを含むマルチモーダル入力データを活用するための効果的な融合戦略を設計する。
本手法は, 点雲の固有な幾何学的制約を自己監督のために利用し, 画像上の2次元キーポイントを弱監督のために利用する。
論文 参考訳(メタデータ) (2022-11-30T12:50:40Z) - On Triangulation as a Form of Self-Supervision for 3D Human Pose
Estimation [57.766049538913926]
ラベル付きデータが豊富である場合, 単一画像からの3次元ポーズ推定に対する改良されたアプローチは, 極めて効果的である。
最近の注目の多くは、セミと(あるいは)弱い教師付き学習に移行している。
本稿では,多視点の幾何学的制約を,識別可能な三角測量を用いて課し,ラベルがない場合の自己監督の形式として用いることを提案する。
論文 参考訳(メタデータ) (2022-03-29T19:11:54Z) - CanonPose: Self-Supervised Monocular 3D Human Pose Estimation in the
Wild [31.334715988245748]
ラベルのないマルチビューデータから1つの画像3Dポーズ推定器を学習する自己教師型アプローチを提案する。
既存のほとんどの方法とは対照的に、校正カメラは必要とせず、移動カメラから学ぶことができる。
成功の鍵は、ビューとトレーニングサンプルの情報を混ぜ合わせた、新しく偏見のない再建目標である。
論文 参考訳(メタデータ) (2020-11-30T10:42:27Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。