論文の概要: Lightweight Multi-person Total Motion Capture Using Sparse Multi-view
Cameras
- arxiv url: http://arxiv.org/abs/2108.10378v1
- Date: Mon, 23 Aug 2021 19:23:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 14:20:46.161855
- Title: Lightweight Multi-person Total Motion Capture Using Sparse Multi-view
Cameras
- Title(参考訳): スパースマルチビューカメラを用いた軽量多人数全モーションキャプチャ
- Authors: Yuxiang Zhang, Zhe Li, Liang An, Mengcheng Li, Tao Yu, Yebin Liu
- Abstract要約: スパース多視点カメラのみを用いた多人数対話型シナリオのための軽量な総合的モーションキャプチャシステムを提案する。
本手法は,重度の閉塞時であっても,手と顔の効率的な位置決めと正確な関連付けが可能である。
本報告では, 高速, 頑健, 高精度な多対人モーションキャプチャ性能を実現するための, 初の軽量全モーションキャプチャシステムを提案する。
- 参考スコア(独自算出の注目度): 35.67288909201899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-person total motion capture is extremely challenging when it comes to
handle severe occlusions, different reconstruction granularities from body to
face and hands, drastically changing observation scales and fast body
movements. To overcome these challenges above, we contribute a lightweight
total motion capture system for multi-person interactive scenarios using only
sparse multi-view cameras. By contributing a novel hand and face bootstrapping
algorithm, our method is capable of efficient localization and accurate
association of the hands and faces even on severe occluded occasions. We
leverage both pose regression and keypoints detection methods and further
propose a unified two-stage parametric fitting method for achieving
pixel-aligned accuracy. Moreover, for extremely self-occluded poses and close
interactions, a novel feedback mechanism is proposed to propagate the
pixel-aligned reconstructions into the next frame for more accurate
association. Overall, we propose the first light-weight total capture system
and achieves fast, robust and accurate multi-person total motion capture
performance. The results and experiments show that our method achieves more
accurate results than existing methods under sparse-view setups.
- Abstract(参考訳): 重度の閉塞、体から顔、手までの再現性の違い、観察スケールの大幅な変化、体の動きの速さなど、多人数のモーションキャプチャーは極めて困難である。
上記の課題を克服するために,スパースマルチビューカメラのみを用いた多人数対話型シナリオのための軽量な全モーションキャプチャシステムを提案する。
本手法は,手と顔のブートストラップアルゴリズムを新たに提案することにより,手と顔の高精度な位置決めと正確な関連付けを行うことができる。
ポーズ回帰法とキーポイント検出法を併用し、さらに画素整列精度を実現するための2段階パラメトリックフィッティング法を提案する。
さらに, 極端に自閉されたポーズと密接なインタラクションに対して, 画素配列の再構成を次のフレームに伝播させる新しいフィードバック機構が提案されている。
全体として,最初の軽量トータルキャプチャシステムを提案し,高速でロバストで高精度なマルチパーソントータルモーションキャプチャ性能を実現する。
その結果,提案手法は,スパースビュー設定時の既存手法よりも精度が高いことがわかった。
関連論文リスト
- VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Mocap Everyone Everywhere: Lightweight Motion Capture With Smartwatches and a Head-Mounted Camera [10.055317239956423]
本稿では2つのスマートウォッチとヘッドマウントカメラを用いた軽量で安価なモーションキャプチャー手法を提案する。
われわれの方法は、あらゆる場所でウェアラブルのモーションキャプチャーを利用できるようにし、多様な環境で3Dのフルボディモーションキャプチャーを可能にする。
論文 参考訳(メタデータ) (2024-01-01T18:56:54Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Robustifying the Multi-Scale Representation of Neural Radiance Fields [86.69338893753886]
実世界の画像の両問題を克服するために,頑健なマルチスケールニューラルラジアンス場表現手法を提案する。
提案手法は,NeRFにインスパイアされたアプローチを用いて,マルチスケール画像効果とカメラ位置推定問題に対処する。
例えば、日常的に取得したマルチビュー画像からオブジェクトの正確な神経表現を行うためには、カメラの正確な位置推定が不可欠であることを示す。
論文 参考訳(メタデータ) (2022-10-09T11:46:45Z) - Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting [44.97191206895915]
独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
論文 参考訳(メタデータ) (2021-11-05T12:59:41Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Multi-object Monocular SLAM for Dynamic Environments [12.537311048732017]
マルチボディ(multibody)という言葉は、カメラの動きと、シーン内の他のダイナミックな参加者の動きを追跡することを意味する。
既存のアプローチは制限された問題の変種を解くが、解は相対的なスケールの曖昧さに悩まされる。
本稿では,相対的および絶対的スケール係数の曖昧さを解決するために,多ポーズグラフ最適化の定式化を提案する。
論文 参考訳(メタデータ) (2020-02-10T03:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。