論文の概要: PressureVision++: Estimating Fingertip Pressure from Diverse RGB Images
- arxiv url: http://arxiv.org/abs/2301.02310v3
- Date: Wed, 3 Jan 2024 18:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 17:21:08.620750
- Title: PressureVision++: Estimating Fingertip Pressure from Diverse RGB Images
- Title(参考訳): PressureVision++: さまざまなRGBイメージからFingertip圧力を推定する
- Authors: Patrick Grady, Jeremy A. Collins, Chengcheng Tang, Christopher D.
Twigg, Kunal Aneja, James Hays, Charles C. Kemp
- Abstract要約: ディープモデルは、単一のRGB画像に基づいて手圧力を推定できる。
本稿では,RGBカメラと協力的参加者のみを用いて,多様なデータをキャプチャ可能な新しいアプローチを提案する。
pressureVision++ の混合現実への応用を実演し、毎日の表面をタッチに敏感なインターフェースとして利用できるようにする。
- 参考スコア(独自算出の注目度): 23.877554759345607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Touch plays a fundamental role in manipulation for humans; however, machine
perception of contact and pressure typically requires invasive sensors. Recent
research has shown that deep models can estimate hand pressure based on a
single RGB image. However, evaluations have been limited to controlled settings
since collecting diverse data with ground-truth pressure measurements is
difficult. We present a novel approach that enables diverse data to be captured
with only an RGB camera and a cooperative participant. Our key insight is that
people can be prompted to apply pressure in a certain way, and this prompt can
serve as a weak label to supervise models to perform well under varied
conditions. We collect a novel dataset with 51 participants making fingertip
contact with diverse objects. Our network, PressureVision++, outperforms human
annotators and prior work. We also demonstrate an application of
PressureVision++ to mixed reality where pressure estimation allows everyday
surfaces to be used as arbitrary touch-sensitive interfaces. Code, data, and
models are available online.
- Abstract(参考訳): タッチは人間の操作において基本的な役割を担っているが、機械による接触と圧力の認識は通常、侵入センサーを必要とする。
近年の研究では、深部モデルは単一のRGB画像に基づいて手圧を推定できることが示されている。
しかし, 地圧測定による多様なデータ収集が困難であるため, 制御条件に限定されている。
本稿では,RGBカメラと協力的参加者のみを用いて,多様なデータをキャプチャ可能な新しいアプローチを提案する。
私たちの重要な洞察は、人々は特定の方法で圧力をかけるように促され、このプロンプトは様々な条件下でうまく機能するようにモデルを監督する弱いラベルとして機能することができるということです。
51人の参加者が多様な物体と指先で接触する新しいデータセットを収集した。
当社のネットワークである PressureVision++ は,人間のアノテータや以前の作業よりも優れています。
pressureVision++ の混合現実への応用を実演し、毎日の表面をタッチに敏感なインターフェースとして利用できるようにする。
コード、データ、モデルはオンラインで入手できる。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - PressureTransferNet: Human Attribute Guided Dynamic Ground Pressure
Profile Transfer using 3D simulated Pressure Maps [7.421780713537146]
PressureTransferNetは、ソースの圧力マップとターゲットの人間属性ベクトルを入力として取り込むエンコーダ・デコーダモデルである。
センサシミュレーションを用いて、さまざまな人的属性と圧力プロファイルを持つ多様なデータセットを作成する。
物理に基づく深層学習モデルを用いて, 合成圧力形状の忠実度を視覚的に確認し, 接地領域での2乗R2乗値0.79を得る。
論文 参考訳(メタデータ) (2023-08-01T13:31:25Z) - RidgeBase: A Cross-Sensor Multi-Finger Contactless Fingerprint Dataset [10.219621548854343]
RidgeBaseは、88人の個人から取得された15,000以上の接触のない指紋と接触ベースの指紋画像のペアで構成されている。
既存のデータセットとは異なり、RageBaseは異なるマッチングシナリオ下での研究を促進するように設計されている。
本稿では,顔認識データセットの進歩に触発されたセットベースマッチングプロトコルを提案する。
論文 参考訳(メタデータ) (2023-07-09T22:09:15Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - PressureVision: Estimating Hand Pressure from a Single RGB Image [27.449311565446443]
従来のRGBカメラを用いて手圧力を推定する可能性を探る。
計器面に圧力を印加した多彩な皮膚緊張を有する36名の被験者の映像を収集した。
我々は1枚のRGB画像から圧力像を推測するために深部モデル(PressureVisionNet)を訓練した。
論文 参考訳(メタデータ) (2022-03-19T19:54:56Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Pressure Eye: In-bed Contact Pressure Estimation via Contact-less
Imaging [18.35652911833834]
人体と横になっている表面との間の接触圧を推定するために,我々の圧力眼(PEye)アプローチを提案する。
PEyeは最終的にベッドバウンド患者の圧力潰瘍の予測と早期検出を可能にした。
論文 参考訳(メタデータ) (2022-01-27T22:22:17Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。