論文の概要: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- arxiv url: http://arxiv.org/abs/2310.08116v1
- Date: Thu, 12 Oct 2023 08:17:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 10:59:28.280785
- Title: Multimodal Active Measurement for Human Mesh Recovery in Close Proximity
- Title(参考訳): 近接場におけるメッシュ回復のためのマルチモーダルアクティブ計測
- Authors: Takahiro Maeda, Keisuke Takeshita, and Kazuhito Tanaka
- Abstract要約: 物理的な人間とロボットの相互作用では、ロボットは対象者の正確な身体のポーズやメッシュを推定する必要がある。
これらのpHRIシナリオでは、ロボットは通常、ロボットに近いため、装備されたカメラで対象者の身体を完全に観察することはできない。
搭載カメラおよびタッチセンサや2D LiDARなどのセンサのアクティブな計測・センサ融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.1281577592123884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For safe and sophisticated physical human-robot interactions (pHRI), a robot
needs to estimate the accurate body pose or mesh of the target person. However,
in these pHRI scenarios, the robot cannot fully observe the target person's
body with equipped cameras because the target person is usually close to the
robot. This leads to severe truncation and occlusions, and results in poor
accuracy of human pose estimation. For better accuracy of human pose estimation
or mesh recovery on this limited information from cameras, we propose an active
measurement and sensor fusion framework of the equipped cameras and other
sensors such as touch sensors and 2D LiDAR. These touch and LiDAR sensing are
obtained attendantly through pHRI without additional costs. These sensor
measurements are sparse but reliable and informative cues for human mesh
recovery. In our active measurement process, camera viewpoints and sensor
placements are optimized based on the uncertainty of the estimated pose, which
is closely related to the truncated or occluded areas. In our sensor fusion
process, we fuse the sensor measurements to the camera-based estimated pose by
minimizing the distance between the estimated mesh and measured positions. Our
method is agnostic to robot configurations. Experiments were conducted using
the Toyota Human Support Robot, which has a camera, 2D LiDAR, and a touch
sensor on the robot arm. Our proposed method demonstrated the superiority in
the human pose estimation accuracy on the quantitative comparison. Furthermore,
our proposed method reliably estimated the pose of the target person in
practical settings such as target people occluded by a blanket and standing aid
with the robot arm.
- Abstract(参考訳): 安全で洗練された物理的ロボットインタラクション(pHRI)のために、ロボットは対象者の正確な身体ポーズやメッシュを推定する必要がある。
しかし、これらのpHRIシナリオでは、ロボットは通常ロボットに近いため、搭載カメラで対象者の身体を完全に観察することはできない。
これにより、重度の切断と閉塞が生じ、人間のポーズ推定の精度が低下する。
カメラからの限られた情報に対する人間のポーズ推定やメッシュ回復の精度向上を目的として,搭載カメラおよびタッチセンサや2D LiDARなどのセンサのアクティブな計測・センサ融合フレームワークを提案する。
これらのタッチとLiDARセンシングは、追加費用なしでpHRIを介して補助的に得られる。
これらのセンサー測定は、人間のメッシュ回復のための、希少だが信頼性があり、情報的な手がかりである。
アクティブな計測プロセスでは,推定ポーズの不確実性に基づいて,カメラの視点とセンサ配置を最適化する。
センサ融合過程において、推定メッシュと測定位置の距離を最小化することにより、センサ計測をカメラベース推定ポーズに融合する。
本手法はロボット構成に依存しない。
ロボットアームにカメラ、2D LiDAR、タッチセンサーを備えたToyota Human Support Robotを用いて実験を行った。
提案手法は,人間のポーズ推定精度を定量的に比較し,優位性を示した。
さらに,本提案手法では,対象者のポーズを,毛布に挟まれたターゲットの人やロボットアームによるスタンディング支援など,現実的な場面で確実に推定する。
関連論文リスト
- Design Space Exploration on Efficient and Accurate Human Pose Estimation
from Sparse IMU-Sensing [0.04594153909580514]
HPE(Human Pose Estimation)は、スポーツ、リハビリテーション、仕事の安全などにおいて、個人データを損なうことなく正確な感覚を必要とする。
ハードウェアリソースの正確性と効率的な利用との間の中心的なトレードオフは、研究ではほとんど議論されない。
我々は、センサ構成の異なる公開ボディモデルデータセットからIMUデータを生成し、このデータでディープラーニングモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-07-21T13:36:49Z) - UltraGlove: Hand Pose Estimation with Mems-Ultrasonic Sensors [14.257535961674021]
指に装着した複数のMEMS超音波センサを用いた手指追跡グローブを提案する。
実験の結果,本手法は精度,サイズに依存し,外的干渉に対して頑健であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T03:41:47Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Robot to Human Object Handover using Vision and Joint Torque Sensor
Modalities [3.580924916641143]
このシステムは、完全に自律的で堅牢なオブジェクトを人間の受信機にリアルタイムでハンドオーバする。
我々のアルゴリズムは、腕の関節トルクセンサーと、センサーフィードバックのための眼内RGB-Dカメラの2つの相補的なセンサーモードに依存している。
センサフィードバックの同期、オブジェクト、人手検出における課題にもかかわらず、我々のシステムは98%の精度で堅牢なロボットと人間のハンドオーバを実現する。
論文 参考訳(メタデータ) (2022-10-27T00:11:34Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Human keypoint detection for close proximity human-robot interaction [29.99153271571971]
近接ロボット相互作用の文脈における最先端人間のキーポイント検出器の性能について検討した。
MMPoseとAlphaPoseは近接して全体キーポイント検出器を動作させたが、どちらも指検出に難しかった。
本稿では,MMPose または AlphaPose の身体用と MediaPipe を,最も正確かつ堅牢な検出が可能な単一のフレームワークで組み合わせて提案する。
論文 参考訳(メタデータ) (2022-07-15T20:33:29Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Automatic Social Distance Estimation From Images: Performance
Evaluation, Test Benchmark, and Algorithm [78.88882860340797]
新型コロナウイルスは2020年3月から世界的なパンデミックを引き起こしている。
感染リスクを低減するため、他者から最低1メートルの距離を維持することが強く示唆されている。
このようなアルゴリズムには適切なテストベンチマークは存在しない。
論文 参考訳(メタデータ) (2021-03-11T16:15:20Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。