論文の概要: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- arxiv url: http://arxiv.org/abs/2310.08116v2
- Date: Fri, 10 May 2024 13:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:27:06.876778
- Title: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- Title(参考訳): 近接場におけるメッシュ回復のためのマルチモーダルアクティブ計測
- Authors: Takahiro Maeda, Keisuke Takeshita, Kazuhito Tanaka,
- Abstract要約: 物理的な人間とロボットの相互作用では、ロボットは対象者の正確な身体のポーズを推定する必要がある。
これらのpHRIシナリオでは、ロボットは物理的相互作用のためにロボットに近づかなければならないため、装備されたカメラで対象者の身体を完全に観察することはできない。
本稿では,2次元LiDARのような触覚センサを備えたカメラのアクティブな計測・センサ融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.1281577592123884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For physical human-robot interactions (pHRI), a robot needs to estimate the accurate body pose of a target person. However, in these pHRI scenarios, the robot cannot fully observe the target person's body with equipped cameras because the target person must be close to the robot for physical interaction. This closeness leads to severe truncation and occlusions and thus results in poor accuracy of human pose estimation. For better accuracy in this challenging environment, we propose an active measurement and sensor fusion framework of the equipped cameras with touch and ranging sensors such as 2D LiDAR. Touch and ranging sensor measurements are sparse, but reliable and informative cues for localizing human body parts. In our active measurement process, camera viewpoints and sensor placements are dynamically optimized to measure body parts with higher estimation uncertainty, which is closely related to truncation or occlusion. In our sensor fusion process, assuming that the measurements of touch and ranging sensors are more reliable than the camera-based estimations, we fuse the sensor measurements to the camera-based estimated pose by aligning the estimated pose towards the measured points. Our proposed method outperformed previous methods on the standard occlusion benchmark with simulated active measurement. Furthermore, our method reliably estimated human poses using a real robot even with practical constraints such as occlusion by blankets.
- Abstract(参考訳): 物理的人間-ロボット相互作用(pHRI)では、ロボットは対象者の正確な身体姿勢を推定する必要がある。
しかし、これらのpHRIシナリオでは、対象者が物理的相互作用のためにロボットの近くにいなければならないため、搭載カメラで対象者の身体を完全に観察することはできない。
この近さは重度の乱れと閉塞をもたらし、結果として人間のポーズ推定の精度が低下する。
そこで本研究では,2次元LiDARなどのタッチ・レンジセンサを備えたカメラのアクティブな計測・センサ融合フレームワークを提案する。
触覚と測位センサーの計測は少ないが、人体部分の局所化には信頼性があり、有益な方法である。
アクティブな計測プロセスでは、カメラの視点とセンサーの配置を動的に最適化し、高い推定不確かさで身体部分を測定する。
センサ融合過程において, センサの計測値がカメラによる推定値よりも信頼性が高いことを前提として, 推定されたポーズを計測点に向けて整列させることにより, センサ計測値をカメラによる推定ポーズに融合させる。
提案手法は, 模擬能動測定を用いた標準閉塞ベンチマークにおいて, 従来手法よりも優れた性能を示した。
さらに,本手法は,毛布による閉塞などの実用的制約があっても,実際のロボットを用いて人間のポーズを確実に推定する。
関連論文リスト
- Fusing uncalibrated IMUs and handheld smartphone video to reconstruct knee kinematics [1.5728609542259502]
本稿では,ハンドヘルドスマートフォンの映像とウェアラブルセンサデータの完全な時間分解能を両立させる手法を提案する。
歩行障害のない人,下肢義肢使用者,脳卒中歴のある人を対象に,これを検証した。
論文 参考訳(メタデータ) (2024-05-27T17:23:16Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - DiffusionPoser: Real-time Human Motion Reconstruction From Arbitrary Sparse Sensors Using Autoregressive Diffusion [10.439802168557513]
限られた数のボディウーンセンサーからのモーションキャプチャーは、健康、人間のパフォーマンス、エンターテイメントに重要な応用がある。
最近の研究は、6つのIMUを用いて、特定のセンサー構成から全身の動きを正確に再構築することに焦点を当てている。
センサの任意の組み合わせから人の動きをリアルタイムで再現する単一拡散モデルDiffusionPoserを提案する。
論文 参考訳(メタデータ) (2023-08-31T12:36:50Z) - Design Space Exploration on Efficient and Accurate Human Pose Estimation
from Sparse IMU-Sensing [0.04594153909580514]
HPE(Human Pose Estimation)は、スポーツ、リハビリテーション、仕事の安全などにおいて、個人データを損なうことなく正確な感覚を必要とする。
ハードウェアリソースの正確性と効率的な利用との間の中心的なトレードオフは、研究ではほとんど議論されない。
我々は、センサ構成の異なる公開ボディモデルデータセットからIMUデータを生成し、このデータでディープラーニングモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-21T13:36:49Z) - UltraGlove: Hand Pose Estimation with Mems-Ultrasonic Sensors [14.257535961674021]
指に装着した複数のMEMS超音波センサを用いた手指追跡グローブを提案する。
実験の結果,本手法は精度,サイズに依存し,外的干渉に対して頑健であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T03:41:47Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Automatic Social Distance Estimation From Images: Performance
Evaluation, Test Benchmark, and Algorithm [78.88882860340797]
新型コロナウイルスは2020年3月から世界的なパンデミックを引き起こしている。
感染リスクを低減するため、他者から最低1メートルの距離を維持することが強く示唆されている。
このようなアルゴリズムには適切なテストベンチマークは存在しない。
論文 参考訳(メタデータ) (2021-03-11T16:15:20Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。