論文の概要: Visual Estimation of Fingertip Pressure on Diverse Surfaces using Easily
Captured Data
- arxiv url: http://arxiv.org/abs/2301.02310v1
- Date: Thu, 5 Jan 2023 21:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:42:49.769396
- Title: Visual Estimation of Fingertip Pressure on Diverse Surfaces using Easily
Captured Data
- Title(参考訳): 簡易捕捉データを用いた多様な表面上の指先圧力の視覚的推定
- Authors: Patrick Grady, Jeremy A. Collins, Chengcheng Tang, Christopher D.
Twigg, James Hays, Charles C. Kemp
- Abstract要約: ディープモデルは、単一のRGB画像に基づいて、手から表面への圧力を推定することができる。
本稿では,指先による圧力を視覚的に推定するContactLabelNetを提案する。
- 参考スコア(独自算出の注目度): 22.99686823446468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research has shown that deep models can estimate the pressure applied
by a hand to a surface based on a single RGB image. Training these models
requires high-resolution pressure measurements that are difficult to obtain
with physical sensors. Additionally, even experts cannot reliably annotate
pressure from images. Thus, data collection is a critical barrier to
generalization and improved performance. We present a novel approach that
enables training data to be efficiently captured from unmodified surfaces with
only an RGB camera and a cooperative participant. Our key insight is that
people can be prompted to perform actions that correspond with categorical
labels (contact labels) describing contact pressure, such as using a specific
fingertip to make low-force contact. We present ContactLabelNet, which visually
estimates pressure applied by fingertips. With the use of contact labels,
ContactLabelNet achieves improved performance, generalizes to novel surfaces,
and outperforms models from prior work.
- Abstract(参考訳): 先行研究では、深層モデルが単一のrgb画像に基づいて、手が表面へ与える圧力を推定できることが示されている。
これらのモデルの訓練には、物理的センサーで取得が難しい高解像度の圧力測定が必要である。
さらに、専門家でさえ画像からの圧力を確実にアノテートすることはできない。
したがって、データ収集は一般化と性能向上の重要な障壁である。
本稿では,RGBカメラと協調参加者のみを用いて,未修正表面からトレーニングデータを効率的に取得する手法を提案する。
私たちの重要な洞察は、特定の指先を使って低力の接触を行うなど、接触圧を示す分類ラベル(接触ラベル)に対応するアクションを実行するように促すことができるということです。
本稿では,指先による圧力を視覚的に推定するContactLabelNetを提案する。
コンタクトラベルを使用することで、ContactLabelNetはパフォーマンスの向上、新しいサーフェスへの一般化、以前の作業によるモデルのパフォーマンス向上を実現している。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - PressureTransferNet: Human Attribute Guided Dynamic Ground Pressure
Profile Transfer using 3D simulated Pressure Maps [7.421780713537146]
PressureTransferNetは、ソースの圧力マップとターゲットの人間属性ベクトルを入力として取り込むエンコーダ・デコーダモデルである。
センサシミュレーションを用いて、さまざまな人的属性と圧力プロファイルを持つ多様なデータセットを作成する。
物理に基づく深層学習モデルを用いて, 合成圧力形状の忠実度を視覚的に確認し, 接地領域での2乗R2乗値0.79を得る。
論文 参考訳(メタデータ) (2023-08-01T13:31:25Z) - RidgeBase: A Cross-Sensor Multi-Finger Contactless Fingerprint Dataset [10.219621548854343]
RidgeBaseは、88人の個人から取得された15,000以上の接触のない指紋と接触ベースの指紋画像のペアで構成されている。
既存のデータセットとは異なり、RageBaseは異なるマッチングシナリオ下での研究を促進するように設計されている。
本稿では,顔認識データセットの進歩に触発されたセットベースマッチングプロトコルを提案する。
論文 参考訳(メタデータ) (2023-07-09T22:09:15Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - PressureVision: Estimating Hand Pressure from a Single RGB Image [27.449311565446443]
従来のRGBカメラを用いて手圧力を推定する可能性を探る。
計器面に圧力を印加した多彩な皮膚緊張を有する36名の被験者の映像を収集した。
我々は1枚のRGB画像から圧力像を推測するために深部モデル(PressureVisionNet)を訓練した。
論文 参考訳(メタデータ) (2022-03-19T19:54:56Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Pressure Eye: In-bed Contact Pressure Estimation via Contact-less
Imaging [18.35652911833834]
人体と横になっている表面との間の接触圧を推定するために,我々の圧力眼(PEye)アプローチを提案する。
PEyeは最終的にベッドバウンド患者の圧力潰瘍の予測と早期検出を可能にした。
論文 参考訳(メタデータ) (2022-01-27T22:22:17Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。