論文の概要: PressureVision: Estimating Hand Pressure from a Single RGB Image
- arxiv url: http://arxiv.org/abs/2203.10385v1
- Date: Sat, 19 Mar 2022 19:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:54:40.398202
- Title: PressureVision: Estimating Hand Pressure from a Single RGB Image
- Title(参考訳): PressureVision: 単一のRGB画像から手圧力を推定する
- Authors: Patrick Grady, Chengcheng Tang, Samarth Brahmbhatt, Christopher D.
Twigg, Chengde Wan, James Hays, Charles C. Kemp
- Abstract要約: 従来のRGBカメラを用いて手圧力を推定する可能性を探る。
計器面に圧力を印加した多彩な皮膚緊張を有する36名の被験者の映像を収集した。
我々は1枚のRGB画像から圧力像を推測するために深部モデル(PressureVisionNet)を訓練した。
- 参考スコア(独自算出の注目度): 27.449311565446443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People often interact with their surroundings by applying pressure with their
hands. Machine perception of hand pressure has been limited by the challenges
of placing sensors between the hand and the contact surface. We explore the
possibility of using a conventional RGB camera to infer hand pressure. The
central insight is that the application of pressure by a hand results in
informative appearance changes. Hands share biomechanical properties that
result in similar observable phenomena, such as soft-tissue deformation, blood
distribution, hand pose, and cast shadows. We collected videos of 36
participants with diverse skin tone applying pressure to an instrumented planar
surface. We then trained a deep model (PressureVisionNet) to infer a pressure
image from a single RGB image. Our model infers pressure for participants
outside of the training data and outperforms baselines. We also show that the
output of our model depends on the appearance of the hand and cast shadows near
contact regions. Overall, our results suggest the appearance of a previously
unobserved human hand can be used to accurately infer applied pressure.
- Abstract(参考訳): 人々はしばしば自分の手で圧力をかけることで周囲と対話する。
機械による手圧の知覚は、手と接触面の間にセンサーを置くという課題によって制限されている。
従来のRGBカメラを用いた手圧力推定の可能性を検討する。
中心的な洞察は、手による圧力の適用は情報的外観の変化をもたらすということである。
手は、軟部変形、血液分布、ポーズ、鋳型影など、同様の観測可能な現象をもたらす生体力学的特性を共有する。
計測された平面面に圧力を印加した多彩な肌色を有する36名の被験者のビデオを集めた。
次に,1枚のRGB画像から圧力像を推測する深層モデル(PressureVisionNet)を訓練した。
我々のモデルはトレーニングデータ以外の参加者の圧力を推測し、ベースラインを上回っます。
また,本モデルの出力は,接触領域近傍の手や鋳造影の外観に依存することを示した。
総じて,従来観察されていなかったヒトの手の出現は,応用圧を正確に推測するために有効であることが示唆された。
関連論文リスト
- EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - HandNeRF: Neural Radiance Fields for Animatable Interacting Hands [122.32855646927013]
神経放射場(NeRF)を用いて手の動きを正確に再現する新しい枠組みを提案する。
我々は,提案するHandNeRFのメリットを検証するための広範囲な実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2023-03-24T06:19:19Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z) - Robustness Evaluation in Hand Pose Estimation Models using Metamorphic
Testing [2.535271349350579]
ハンドポーズ推定(HPE)は、画像やビデオフレームから手ポーズを予測し、記述するタスクである。
本研究では,HPEモデルのロバスト性を評価するためにメタモルフィックテストを採用する。
論文 参考訳(メタデータ) (2023-03-08T13:23:53Z) - PressureVision++: Estimating Fingertip Pressure from Diverse RGB Images [23.877554759345607]
ディープモデルは、単一のRGB画像に基づいて手圧力を推定できる。
本稿では,RGBカメラと協力的参加者のみを用いて,多様なデータをキャプチャ可能な新しいアプローチを提案する。
pressureVision++ の混合現実への応用を実演し、毎日の表面をタッチに敏感なインターフェースとして利用できるようにする。
論文 参考訳(メタデータ) (2023-01-05T21:48:33Z) - Pressure Eye: In-bed Contact Pressure Estimation via Contact-less
Imaging [18.35652911833834]
人体と横になっている表面との間の接触圧を推定するために,我々の圧力眼(PEye)アプローチを提案する。
PEyeは最終的にベッドバウンド患者の圧力潰瘍の予測と早期検出を可能にした。
論文 参考訳(メタデータ) (2022-01-27T22:22:17Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。