論文の概要: Proactive Multi-Camera Collaboration For 3D Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2303.03767v1
- Date: Tue, 7 Mar 2023 10:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 15:50:00.827181
- Title: Proactive Multi-Camera Collaboration For 3D Human Pose Estimation
- Title(参考訳): 3次元人物位置推定のためのプロアクティブマルチカメラコラボレーション
- Authors: Hai Ci, Mickel Liu, Xuehai Pan, Fangwei Zhong, Yizhou Wang
- Abstract要約: 本稿では,3次元人物位置推定におけるプロアクティブなマルチカメラ協調のためのマルチエージェント強化学習手法を提案する。
アクティブカメラは3次元再構成に最適な視点を求めるために、積極的にカメラのポーズを制御している。
我々は、環境ダイナミクスをよりよく捉えるために、複数の世界ダイナミクス学習タスクでモデルを共同で訓練する。
- 参考スコア(独自算出の注目度): 16.628446718419344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a multi-agent reinforcement learning (MARL) scheme for
proactive Multi-Camera Collaboration in 3D Human Pose Estimation in dynamic
human crowds. Traditional fixed-viewpoint multi-camera solutions for human
motion capture (MoCap) are limited in capture space and susceptible to dynamic
occlusions. Active camera approaches proactively control camera poses to find
optimal viewpoints for 3D reconstruction. However, current methods still face
challenges with credit assignment and environment dynamics. To address these
issues, our proposed method introduces a novel Collaborative Triangulation
Contribution Reward (CTCR) that improves convergence and alleviates multi-agent
credit assignment issues resulting from using 3D reconstruction accuracy as the
shared reward. Additionally, we jointly train our model with multiple world
dynamics learning tasks to better capture environment dynamics and encourage
anticipatory behaviors for occlusion avoidance. We evaluate our proposed method
in four photo-realistic UE4 environments to ensure validity and
generalizability. Empirical results show that our method outperforms fixed and
active baselines in various scenarios with different numbers of cameras and
humans.
- Abstract(参考訳): 本稿では,動的集団における3次元ポーズ推定におけるプロアクティブマルチカメラ協調のためのマルチエージェント強化学習(marl)方式を提案する。
人間のモーションキャプチャー(MoCap)のための従来の固定視点マルチカメラソリューションは、キャプチャ空間に限られており、ダイナミックオクルージョンの影響を受けやすい。
アクティブカメラアプローチ カメラポーズを積極的に制御し、3次元再構成のための最適な視点を見つける。
しかし、現在の手法は、クレジット割り当てと環境ダイナミクスの課題に直面している。
これらの課題に対処するため,提案手法では,3次元再構成の精度を共有報酬として用いることで,収束性を改善し,マルチエージェントのクレジット割り当て問題を緩和する新しいコラボレーティブ・トリアングリゲーション・リワード(CTCR)を提案する。
さらに,複数の世界ダイナミクス学習タスクと共同でモデルを訓練し,環境のダイナミクスを把握し,咬合回避のための予測行動を促す。
提案手法を4つの光現実性UE4環境で評価し,妥当性と一般化性を確保する。
実験結果から,本手法はカメラと人間の数が異なる様々なシナリオにおいて,固定的,アクティブなベースラインよりも優れていた。
関連論文リスト
- Multi-view Pose Fusion for Occlusion-Aware 3D Human Pose Estimation [3.442372522693843]
本稿では,人間とロボットのコラボレーションの文脈におけるロバストな3次元ポーズ推定手法を提案する。
提案手法は,最先端の多視点人間のポーズ推定手法より優れている。
論文 参考訳(メタデータ) (2024-08-28T14:10:57Z) - Markerless Multi-view 3D Human Pose Estimation: a survey [0.49157446832511503]
3D人間のポーズ推定は、複数の関節を検知することで、シーン内のすべての個人の骨格を再構築することを目的としている。
3Dポーズの再構築に関わるすべての課題を解決する方法はまだない。
さらに、高い精度の3Dポーズを計算コストで迅速に推測できるアプローチを開発するためには、さらなる研究が必要である。
論文 参考訳(メタデータ) (2024-07-04T10:44:35Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - GLAMR: Global Occlusion-Aware Human Mesh Recovery with Dynamic Cameras [99.07219478953982]
ダイナミックカメラで記録したモノクロビデオから3次元グローバルなヒューマンメッシュリカバリのためのアプローチを提案する。
われわれはまず,視覚的動作に基づいて隠蔽されたヒトの身体運動を自己回帰的に埋め込む,深部再生運動充填装置を提案する。
従来の研究とは対照的に,我々の手法はダイナミックカメラを用いても,一貫したグローバル座標で人間のメッシュを再構築する。
論文 参考訳(メタデータ) (2021-12-02T18:59:54Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Exploring Severe Occlusion: Multi-Person 3D Pose Estimation with Gated
Convolution [34.301501457959056]
本稿では,2次元関節を3次元に変換するために,ゲート型畳み込みモジュールを用いた時間回帰ネットワークを提案する。
また, 正規化ポーズを大域軌跡に変換するために, 単純かつ効果的な局所化手法も実施した。
提案手法は,最先端の2D-to-3Dポーズ推定法よりも優れている。
論文 参考訳(メタデータ) (2020-10-31T04:35:24Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Weakly-Supervised 3D Human Pose Learning via Multi-view Images in the
Wild [101.70320427145388]
本稿では、3Dアノテーションを必要としない弱教師付きアプローチを提案し、ラベルのないマルチビューデータから3Dポーズを推定する。
提案手法を2つの大規模データセット上で評価する。
論文 参考訳(メタデータ) (2020-03-17T08:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。