論文の概要: Contact-Aware Refinement of Human Pose Pseudo-Ground Truth via Bioimpedance Sensing
- arxiv url: http://arxiv.org/abs/2512.04862v1
- Date: Thu, 04 Dec 2025 14:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.226789
- Title: Contact-Aware Refinement of Human Pose Pseudo-Ground Truth via Bioimpedance Sensing
- Title(参考訳): バイオインダプタンスセンシングによる擬似球体真実の接触認識
- Authors: Maria-Paola Forte, Nikos Athanasiou, Giulia Ballardini, Jan Ulrich Bartels, Katherine J. Kuchenbecker, Michael J. Black,
- Abstract要約: 本稿では,視覚的ポーズ推定とバイオインダプタンスセンシングを組み合わせることで,自己接触を考慮し,人の3Dポーズを捉える新しいフレームワークを提案する。
我々は,同期RGBビデオの新たなデータセット,生体インピーダンス測定,3次元モーションキャプチャーを用いてアプローチを検証する。
また,コンタクト対応トレーニングデータの大規模な収集を可能にする小型ウェアラブルバイオインピーダンスセンサを提案する。
- 参考スコア(独自算出の注目度): 42.371736670824575
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capturing accurate 3D human pose in the wild would provide valuable data for training pose estimation and motion generation methods. While video-based estimation approaches have become increasingly accurate, they often fail in common scenarios involving self-contact, such as a hand touching the face. In contrast, wearable bioimpedance sensing can cheaply and unobtrusively measure ground-truth skin-to-skin contact. Consequently, we propose a novel framework that combines visual pose estimators with bioimpedance sensing to capture the 3D pose of people by taking self-contact into account. Our method, BioTUCH, initializes the pose using an off-the-shelf estimator and introduces contact-aware pose optimization during measured self-contact: reprojection error and deviations from the input estimate are minimized while enforcing vertex proximity constraints. We validate our approach using a new dataset of synchronized RGB video, bioimpedance measurements, and 3D motion capture. Testing with three input pose estimators, we demonstrate an average of 11.7% improvement in reconstruction accuracy. We also present a miniature wearable bioimpedance sensor that enables efficient large-scale collection of contact-aware training data for improving pose estimation and generation using BioTUCH. Code and data are available at biotuch.is.tue.mpg.de
- Abstract(参考訳): 野生での正確な3Dポーズの取得は、ポーズ推定とモーションジェネレーションの訓練に有用なデータを提供するだろう。
ビデオベースの推定アプローチはますます正確になっているが、顔に触れる手など、自己接触を伴う一般的なシナリオでは失敗することが多い。
対照的に、ウェアラブルバイオインピーダンスセンシングは、地表面から皮膚への接触を安価かつ控えめに測定することができる。
そこで本稿では,視覚的ポーズ推定とバイオインダプタンスセンシングを組み合わせることで,自己接触を考慮し,人の3Dポーズを捉える新しいフレームワークを提案する。
提案手法であるBioTUCHは,本手法をオフザシェルフ推定器を用いて初期化し,自己接触時の接触認識ポーズ最適化を実現する。
我々は,同期RGBビデオの新たなデータセット,生体インピーダンス測定,3次元モーションキャプチャーを用いてアプローチを検証する。
3つの入力ポーズ推定器を用いて実験を行い、平均11.7%の再現精度の向上を実証した。
また,BioTUCHを用いたポーズ推定と生成を改善するために,接触認識訓練データの大規模な収集を可能にする小型ウェアラブルバイオインピーダンスセンサを提案する。
コードとデータはbiotuch.is.tue.mpg.deで公開されている
関連論文リスト
- Pose Priors from Language Models [74.61186408764559]
言語はしばしば物理的相互作用を記述するために使用されるが、ほとんどの3次元人間のポーズ推定方法は、この豊富な情報ソースを見下ろしている。
我々は、コンタクトポーズの再構築に先立って、大型マルチモーダルモデル(LMM)を活用することにより、このギャップを埋める。
論文 参考訳(メタデータ) (2024-05-06T17:59:36Z) - Hybrid 3D Human Pose Estimation with Monocular Video and Sparse IMUs [15.017274891943162]
モノクロビデオからの時間的3Dポーズ推定は、人間中心のコンピュータビジョンにおいて難しい課題である。
情報ソースを補完するために慣性センサが導入された。
物理的に合理的な3Dポーズを生成するために、異種センサデータを統合することは依然として困難である。
論文 参考訳(メタデータ) (2024-04-27T09:02:42Z) - Efficient, Self-Supervised Human Pose Estimation with Inductive Prior
Tuning [30.256493625913127]
復元品質と推定精度の関係を解析する。
トレーニングデータの3分の1以下を使用して,ベースラインよりも優れたモデルパイプラインを開発する。
提案手法により, 再建にともなう学習のコーディネートを支援することができることを示す。
論文 参考訳(メタデータ) (2023-11-06T01:19:57Z) - Multimodal Active Measurement for Human Mesh Recovery in Close Proximity [13.265259738826302]
物理的な人間とロボットの相互作用では、ロボットは対象者の正確な身体のポーズを推定する必要がある。
これらのpHRIシナリオでは、ロボットは物理的相互作用のためにロボットに近づかなければならないため、装備されたカメラで対象者の身体を完全に観察することはできない。
本稿では,2次元LiDARのような触覚センサを備えたカメラのアクティブな計測・センサ融合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T08:17:57Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - On Self-Contact and Human Pose [50.96752167102025]
自己接触による人格推定を著しく改善する新しいデータセットと手法を開発した。
新たな自己接触トレーニングデータにより,保持されていないテストデータと既存の3DPWのようなデータセットの3次元ポーズ推定が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-04-07T15:10:38Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。