論文の概要: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- arxiv url: http://arxiv.org/abs/2310.08116v1
- Date: Thu, 12 Oct 2023 08:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 10:59:28.280785
- Title: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- Title(参考訳): 近接場におけるメッシュ回復のためのマルチモーダルアクティブ計測
- Authors: Takahiro Maeda, Keisuke Takeshita, and Kazuhito Tanaka
- Abstract要約: 物理的な人間とロボットの相互作用では、ロボットは対象者の正確な身体のポーズやメッシュを推定する必要がある。
これらのpHRIシナリオでは、ロボットは通常、ロボットに近いため、装備されたカメラで対象者の身体を完全に観察することはできない。
搭載カメラおよびタッチセンサや2D LiDARなどのセンサのアクティブな計測・センサ融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.1281577592123884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For safe and sophisticated physical human-robot interactions (pHRI), a robot
needs to estimate the accurate body pose or mesh of the target person. However,
in these pHRI scenarios, the robot cannot fully observe the target person's
body with equipped cameras because the target person is usually close to the
robot. This leads to severe truncation and occlusions, and results in poor
accuracy of human pose estimation. For better accuracy of human pose estimation
or mesh recovery on this limited information from cameras, we propose an active
measurement and sensor fusion framework of the equipped cameras and other
sensors such as touch sensors and 2D LiDAR. These touch and LiDAR sensing are
obtained attendantly through pHRI without additional costs. These sensor
measurements are sparse but reliable and informative cues for human mesh
recovery. In our active measurement process, camera viewpoints and sensor
placements are optimized based on the uncertainty of the estimated pose, which
is closely related to the truncated or occluded areas. In our sensor fusion
process, we fuse the sensor measurements to the camera-based estimated pose by
minimizing the distance between the estimated mesh and measured positions. Our
method is agnostic to robot configurations. Experiments were conducted using
the Toyota Human Support Robot, which has a camera, 2D LiDAR, and a touch
sensor on the robot arm. Our proposed method demonstrated the superiority in
the human pose estimation accuracy on the quantitative comparison. Furthermore,
our proposed method reliably estimated the pose of the target person in
practical settings such as target people occluded by a blanket and standing aid
with the robot arm.
- Abstract(参考訳): 安全で洗練された物理的ロボットインタラクション(pHRI)のために、ロボットは対象者の正確な身体ポーズやメッシュを推定する必要がある。
しかし、これらのpHRIシナリオでは、ロボットは通常ロボットに近いため、搭載カメラで対象者の身体を完全に観察することはできない。
これにより、重度の切断と閉塞が生じ、人間のポーズ推定の精度が低下する。
カメラからの限られた情報に対する人間のポーズ推定やメッシュ回復の精度向上を目的として,搭載カメラおよびタッチセンサや2D LiDARなどのセンサのアクティブな計測・センサ融合フレームワークを提案する。
これらのタッチとLiDARセンシングは、追加費用なしでpHRIを介して補助的に得られる。
これらのセンサー測定は、人間のメッシュ回復のための、希少だが信頼性があり、情報的な手がかりである。
アクティブな計測プロセスでは,推定ポーズの不確実性に基づいて,カメラの視点とセンサ配置を最適化する。
センサ融合過程において、推定メッシュと測定位置の距離を最小化することにより、センサ計測をカメラベース推定ポーズに融合する。
本手法はロボット構成に依存しない。
ロボットアームにカメラ、2D LiDAR、タッチセンサーを備えたToyota Human Support Robotを用いて実験を行った。
提案手法は,人間のポーズ推定精度を定量的に比較し,優位性を示した。
さらに,本提案手法では,対象者のポーズを,毛布に挟まれたターゲットの人やロボットアームによるスタンディング支援など,現実的な場面で確実に推定する。
関連論文リスト
- Fusing uncalibrated IMUs and handheld smartphone video to reconstruct knee kinematics [1.5728609542259502]
本稿では,ハンドヘルドスマートフォンの映像とウェアラブルセンサデータの完全な時間分解能を両立させる手法を提案する。
歩行障害のない人,下肢義肢使用者,脳卒中歴のある人を対象に,これを検証した。
論文 参考訳(メタデータ) (2024-05-27T17:23:16Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - DiffusionPoser: Real-time Human Motion Reconstruction From Arbitrary Sparse Sensors Using Autoregressive Diffusion [10.439802168557513]
限られた数のボディウーンセンサーからのモーションキャプチャーは、健康、人間のパフォーマンス、エンターテイメントに重要な応用がある。
最近の研究は、6つのIMUを用いて、特定のセンサー構成から全身の動きを正確に再構築することに焦点を当てている。
センサの任意の組み合わせから人の動きをリアルタイムで再現する単一拡散モデルDiffusionPoserを提案する。
論文 参考訳(メタデータ) (2023-08-31T12:36:50Z) - Design Space Exploration on Efficient and Accurate Human Pose Estimation
from Sparse IMU-Sensing [0.04594153909580514]
HPE(Human Pose Estimation)は、スポーツ、リハビリテーション、仕事の安全などにおいて、個人データを損なうことなく正確な感覚を必要とする。
ハードウェアリソースの正確性と効率的な利用との間の中心的なトレードオフは、研究ではほとんど議論されない。
我々は、センサ構成の異なる公開ボディモデルデータセットからIMUデータを生成し、このデータでディープラーニングモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-21T13:36:49Z) - UltraGlove: Hand Pose Estimation with Mems-Ultrasonic Sensors [14.257535961674021]
指に装着した複数のMEMS超音波センサを用いた手指追跡グローブを提案する。
実験の結果,本手法は精度,サイズに依存し,外的干渉に対して頑健であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T03:41:47Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Automatic Social Distance Estimation From Images: Performance
Evaluation, Test Benchmark, and Algorithm [78.88882860340797]
新型コロナウイルスは2020年3月から世界的なパンデミックを引き起こしている。
感染リスクを低減するため、他者から最低1メートルの距離を維持することが強く示唆されている。
このようなアルゴリズムには適切なテストベンチマークは存在しない。
論文 参考訳(メタデータ) (2021-03-11T16:15:20Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。